微細表現と再構成の探索: 衣替え人物再識別向け

着替え人物再識別(Re-ID)は、特に困難な課題であり、劣った識別特徴量と限られた訓練サンプルの2つの制約に直面しています。既存の手法は主に補助情報を利用して、身長や歩行などのソフトバイオメトリクス特徴量や衣服の追加ラベルを含む、同一人物に関連する特徴学習を促進しています。しかし、この情報は実際の応用において利用できない場合があります。本論文では、補助注釈やデータなしでこれらの制約を解決する新しい細部表現と再構成(FIne-grained Representation and Recomposition: FIRe$^{2}$)フレームワークを提案します。具体的には、まず各人物の画像を個別にクラスタリングするための細部特徴抽出(Fine-grained Feature Mining: FFM)モジュールを設計しました。類似した細部属性(例えば、衣服や視点)を持つ画像が一緒にクラスタリングされるように促します。クラスターラベルに基づく属性認識分類損失が導入され、異なる人物間で共有されないこれらのラベルを利用して細部学習を行い、モデルが同一人物に関連する特徴を学習することを促進します。さらに、細部属性の最大活用のために、潜在空間で異なる属性を持つ画像特徴量を再構成する細部属性再構成(Fine-grained Attribute Recomposition: FAR)モジュールを提示します。これにより堅牢な特徴学習が大幅に向上します。広範な実験結果から、FIRe$^{2}$は5つの代表的な着替え人物再識別ベンチマークで最先端の性能を達成できることを示しています。コードは https://github.com/QizaoWang/FIRe-CCReID で公開されています。以上が翻訳です。ご確認いただければ幸いです。