Command Palette
Search for a command to run...
LAVT: 言語認識ビジョントランスフォーマーによる指し示し画像セグメンテーション
LAVT: 言語認識ビジョントランスフォーマーによる指し示し画像セグメンテーション
Yang Zhao ; Wang Jiaqi ; Tang Yansong ; Chen Kai ; Zhao Hengshuang ; Torr Philip H. S.
概要
参照画像セグメンテーションは、自然言語表現によって指定された物体を画像から切り出すことを目指す基本的な視覚-言語タスクである。このタスクの主要な課題の一つは、参照表現を利用して画像内の関連位置を強調することである。この問題に対処するためのパラダイムは、視覚エンコーダと言語エンコーダから独立して抽出された特徴量を融合するために、強力な視覚-言語(「クロスモーダル」)デコーダを利用することである。最近の手法では、多くの他の視覚-言語タスクで圧倒的な成功を収めたTransformerをクロスモーダルデコーダとして利用することで、このパラダイムにおいて著しい進歩が見られている。本研究では異なるアプローチを取り、視覚Transformerエンコーダネットワークの中間層で言語特徴量と視覚特徴量を早期に融合することで、大幅に優れたクロスモーダルアライメントが達成できることを示している。視覚特徴量のエンコード段階でクロスモーダル特徴量融合を行うことで、Transformerエンコーダの確立された相関モデル化能力を活用し、有用なマルチモーダルコンテキストを探り出すことができる。これにより、軽量なマスク予測器を使用して正確なセグメンテーション結果を得ることが容易になる。特別な技巧や装飾なしに、当方法はRefCOCO, RefCOCO+, およびG-Refにおいて以前の最先端手法を大幅に上回っている。