2ヶ月前

VQA: 視覚質問応答

Aishwarya Agrawal; Jiasen Lu; Stanislaw Antol; Margaret Mitchell; C. Lawrence Zitnick; Dhruv Batra; Devi Parikh
VQA: 視覚質問応答
要約

私たちは自由形式かつオープンエンドの視覚的な質問応答(Visual Question Answering: VQA)というタスクを提案します。画像とその画像に関する自然言語の質問が与えられた場合、正確な自然言語での回答を提供することが求められます。現実世界のシナリオ、例えば視覚障害者の支援などに準拠するように、質問と回答はどちらもオープンエンドとなっています。視覚的な質問は、画像の背景詳細や潜在的な文脈を含む異なる領域を選択的に対象とします。したがって、VQAで成功するシステムは、一般的な画像キャプション生成システムよりも詳細な画像理解と複雑な推論が必要となります。さらに、多くのオープンエンドの回答が数単語または選択肢形式で提供できる閉じた答えセットであるため、VQAは自動評価に適しています。当該データセットには約25万枚の画像、約76万件の質問、および約1000万件の回答(www.visualqa.org)が含まれており、その情報について説明します。VQAに関する多数のベースラインと手法が提供され、人間のパフォーマンスとの比較も行われています。私たちのVQAデモはCloudCV(http://cloudcv.org/vqa)で利用可能です。

VQA: 視覚質問応答 | 最新論文 | HyperAI超神経