Command Palette
Search for a command to run...
意味的に自己対準ネットワークを用いたテキストから画像への部位認識型人物再識別
意味的に自己対準ネットワークを用いたテキストから画像への部位認識型人物再識別
Zefeng Ding Changxing Ding, Member, IEEE Zhiyin Shao Dacheng Tao, Fellow, IEEE
概要
テキストから画像への人物再識別(ReID)は、対象の人物を含む画像をテキスト記述を使用して検索することを目指しています。しかし、テキスト記述と画像の間には大きなモダリティギャップがあり、さらにテキスト記述内のクラス内変動が大きいことから、テキストから画像へのReIDは依然として難問となっています。本論文では、これらの問題に対処するため、セマンティックに自己アラインされたネットワーク(SSAN: Semantically Self-Aligned Network)を提案します。まず、我々は新しい手法を提案し、2つのモダリティからセマンティックにアラインされた部位レベルの特徴を自動的に抽出します。次に、身体部位間の関係性を捉えるマルチビュー非局所ネットワークを設計し、身体部位と名詞句との間により良い対応関係を確立します。さらに、同一身元の他の画像のテキスト記述を利用した複合ランキング(CR: Compound Ranking)損失を導入し、これによりテキスト特徴内のクラス内変動を効果的に低減します。最後に、テキストから画像へのReIDに関する今後の研究を促進するために、新しいデータベースであるICFG-PEDESを作成しました。多数の実験結果により、SSANが最先端の手法よりも大幅に優れていることが示されています。新規作成されたICFG-PEDESデータベースとSSANコードは、以下のURLで公開されています。https://github.com/zifyloo/SSAN.