17日前
布帛変化付き人物再識別を 위한細粒度形状・外観相互学習
{Wei-Shi Zheng, Xintong Han, AnCong Wu, Tao Wu, Peixian Hong}

要約
近年、人物再識別(Re-ID)は著しい進展を遂げている。しかし、現行の手法は主に色の外見に依存しており、人物が服装を変更した場合には信頼性が低下する。服装変更を伴う人物再識別(Cloth-changing Re-ID)は、服装の変化に伴う歩行者の画像に大きなクラス内変動と小さなクラス間変動が生じるため、極めて困難である。識別に重要な特徴は、人物間で顕著でないボディシェイプの違いに埋め込まれている。このようなボディシェイプの手がかりを、服装変更に強い再識別に活用するために、本研究では「細粒度シェイプ・アピアランス相互学習フレームワーク」(Fine-grained Shape-Appearance Mutual learning framework, FSAM)を提案する。FSAMは、シェイプストリームとアピアランスストリームからなる二本のストリーム構造を採用し、シェイプストリームで細粒度の識別的ボディシェイプ知識を学習し、それをアピアランスストリームに転移することで、アピアランス特徴における服装依存性のない知識を補完する。具体的には、シェイプストリームでは、識別情報のガイドのもとで細粒度の識別的マスクを学習し、ポーズに特化したマルチブランチネットワークを用いて細粒度のボディシェイプ特徴を抽出する。一方、アピアランスストリームにおける服装依存性のないシェイプ知識の補完を実現するため、低レベルと高レベルの特徴間で密な相互学習を実施し、シェイプストリームからアピアランスストリームへ知識を転移する。このアプローチにより、アピアランスストリームはマスク推定の追加計算を必要とせずに独立して運用可能となる。本手法は、標準的な服装変更再識別データセット上で評価され、最先端の性能を達成した。