ポーズからアイデンティティへ:特徴中心化を用いたトレーニングフリーな人物再識別

人物再識別(ReID)は、正確な身元表現特徴を抽出することを目的としている。しかし、特徴抽出の過程において、個々のサンプルはノイズ(背景、遮蔽、モデルの限界など)の影響を避けがたい。トレーニング後の同一身元の特徴は、身元中心の周囲で正規分布に従うという事実に着目し、本研究では、同一身元の特徴を統合することで個別ノイズを低減し、身元表現の安定性を向上させる「トレーニング不要型特徴中心化ReIDフレームワーク(Pose2ID)」を提案する。この手法は、再ランク付けなどの後続処理に適した特徴の元の分布を保持する点で特徴的である。具体的には、同一身元のサンプルを取得するために、以下の2つのモジュールを導入する。第一に、身元誘導型歩行者生成(Identity-Guided Pedestrian Generation):身元特徴を活用して生成プロセスを誘導することで、多様なポーズを持つ高品質な画像を生成し、赤外線画像や遮蔽が発生する複雑な状況下でも身元の一貫性を確保する。第二に、隣接特徴中心化(Neighbor Feature Centralization):各サンプルの近傍から潜在的な正例サンプルを探索する。実験の結果、本研究で提案する生成モデルは優れた汎化能力を示し、高い身元一貫性を維持していることが確認された。特徴中心化フレームワークを用いることで、ReID用のトレーニングを一切行わず、ImageNetで事前学習されたモデルのみでも、Market1501データセットにおいてmAP/Rank-1が52.81/78.92という優れた性能を達成した。さらに、標準的なReIDタスク、モダリティ間ReIDタスク、遮蔽ありReIDタスクにおいて、いずれも新たなSOTA(最先端)成績を樹立し、強力な適応性を示した。