
要約
私たちは参照画像セグメンテーションの問題を検討しています。入力画像と自然言語表現が与えられたとき、目標はその自然言語表現で指し示された物体を画像からセグメントすることです。この分野における既存の研究では、自然言語表現と入力画像をそれぞれ別々の表現として扱っています。それらは、これらの2つのモダリティ間の長距離相関関係を十分に捉えていません。本論文では、言語特徴量と視覚特徴量間の長距離依存関係を効果的に捉えるクロスモーダル自己注意(Cross-Modal Self-Attention: CMSA)モジュールを提案します。私たちのモデルは、参照表現内の情報量のある単語と入力画像内の重要な領域に適応的に焦点を当てることが可能です。さらに、異なるレベルの画像に対応する自己注意クロスモーダル特徴量を選択的に統合するためのゲート付きマルチレベル融合モジュールを提案します。このモジュールは、異なるレベルでの特徴量の情報フローを制御します。提案手法の有効性は4つの評価データセットで確認しました。私たちが提案した手法は、既存の最先端手法よりも一貫して優れた性能を示しています。