VGSG: ビジョンガイダンスによる意味グループネットワークを用いたテキストベースの人物検索

テキストベースの人物検索(TBPS)は、テキスト記述によって指定された対象の歩行者の画像を検索することを目指しています。TBPSにおいては、細かい局所的な特徴を抽出し、モダリティ間でそれらを合わせることが重要です。既存の手法では、外部ツールや重いクロスモーダル相互作用を使用して、クロスモーダルな細かい特徴の明示的なアライメントを達成しようとしますが、これは非効率的で時間のかかる方法です。本研究では、テキストベースの人物検索に用いるビジョンガイデッド・セマンティックグループネットワーク(VGSG)を提案します。このVGSGでは、視覚的な局所的な手がかりに基づいてテキストの局所的な特徴を抽出するためのセマンティックグループテキスト学習(SGTL)モジュールとビジョンガイデッド知識転送(VGKT)モジュールを開発しました。SGTLにおいては、言語表現の意味的ヒントに基づいてチャネル次元からテキスト特徴をグループ化することで、局所的なテキスト表現を得ることを目指しています。これにより、類似した意味パターンが外部ツールなしで暗黙的にグループ化されるようになります。VGKTにおいては、視覚ガイダンス注意力を使用して視覚に関連するテキスト特徴を抽出します。これらの特徴は視覚的手がかりと内在的にアライメントされており、「ビジョンガイデッド・テキスト特徴」と呼ばれています。さらに、ビジョン言語類似性転送とクラス確率転送を含む関係知識転送を設計しました。これにより、ビジョンガイデッド・テキスト特徴の情報をセマンティックグループテキスト特徴に適応的に伝播させることができます。関係知識転送のおかげで、VGKTは外部ツールや複雑なペアワイズ相互作用なしでセマンティックグループテキスト特徴と対応する視覚的特徴とのアライメントを行うことが可能になりました。2つの困難なベンチマークデータセットでの実験結果は、本手法が最先端の手法に対して優れていることを示しています。