18日前

3D形状特徴の学習によるテクスチャに依存しない人物再識別

{Wei-Shi Zheng, Xing Sun, Feng Zheng, Jun Zhang, Fudong Wang, Xinyang Jiang, Jiaxing Chen}
3D形状特徴の学習によるテクスチャに依存しない人物再識別
要約

人物再識別(person ReID)において、衣服などの視覚的テクスチャ情報に大きく依存することは広く認識されている。近年の研究では顕著な進展が見られつつあるものの、衣服の変更や同一の服装を着用する人物といったテクスチャの混同が生じる状況に対して、既存の大多数のReID手法はほとんど注目を寄せていません。本論文では、テクスチャに基づく情報に依存するのではなく、人物の3次元形状情報を活用することで、衣服のテクスチャに対する頑健性を向上させる手法を提案する。既存のReIDにおける形状学習スキームは、人物の3次元情報を無視している場合や、3次元データを収集するための追加的な物理的デバイスを必要とする場合が多い。これに対して、本研究では、2次元画像からテクスチャに依存しない3次元形状埋め込みを直接抽出する新たなReID学習フレームワークを提案する。この手法は、3次元ボディ再構成を補助タスクおよび正則化として導入したものであり、3D Shape Learning(3DSL)と呼ぶ。3次元再構成に基づく正則化により、ReIDモデルは3次元形状情報と視覚的テクスチャを分離させ、識別的な3次元形状特徴を学習することが可能となる。また、3次元の真値データが不足する問題に対処するため、真値なしで3次元再構成を実行できる敵対的自己教師型投影(Adversarial Self-supervised Projection, ASSP)モデルを設計した。標準的なReIDデータセットおよびテクスチャの混同が顕著なデータセットにおける広範な実験により、本手法の有効性が検証された。