
要約
我々は、視覚と言語の細かい相互作用を捉えるために、視覚的な注意機構と文章的な注意機構を共同で活用するデュアルアテンションネットワーク(DANs)を提案します。DANsは画像内の特定の領域と文章内の単語に複数ステップで注目し、両モダリティから重要な情報を収集します。このフレームワークに基づいて、マルチモーダル推論とマッチングのために2種類のDANsを導入します。推論モデルは、協調的推論中に視覚的な注意と文章的な注意が互いに影響を与え合うことを可能にし、ビジュアルクエスチョンアンサリング(VQA)などのタスクに有用です。さらに、マッチングモデルは2つの注意機構を利用して画像と文の共有される意味に焦点を当てることで、それらの類似性を推定します。我々の広範な実験結果は、DANsが視覚と言語を組み合わせる効果性を証明しており、VQAや画像-文マッチングに関する公開ベンチマークにおいて最先端の性能を達成しています。