
最近、大規模な合成データセットが一般化可能な人物再識別に非常に有用であることが示されています。しかし、既存のデータセットに含まれる合成人物は主にアニメ風で、衣装の組み合わせもランダムであるため、その性能が制限されています。この問題を解決するために、本研究では実世界の人物画像から仮想3Dキャラクターへ直接全体の衣装を複製する自動手法を提案します。これにより、生成された仮想人物は実世界の対応物と非常に類似した外見を持つようになります。具体的には、UVテクスチャマッピングに基づいて2つの複製方法が設計されました。すなわち、登録済み衣服マッピングと均質衣料拡張です。人物画像から検出され、明確な衣服構造を持つ正規のUVマップ上でラベリングされた衣服キーポイントに基づき、登録済みマッピングは透視同型変換(perspective homography)を使用して実世界の衣服をUVマップ上の対応部分に変形させます。一方、見えない衣服部分や不規則なUVマップに対しては、均質拡張が衣服上の一様な領域を現実的な布地パターンまたはセルとしてセグメンテーションし、そのセルを拡張してUVマップを埋め尽くします。さらに、類似度-多様性拡張戦略が提案されました。これは人物画像をクラスタリングし、各クラスタからサンプリングを行い、3Dキャラクター生成のために衣装を複製する手法です。これにより、仮想人物は視覚的な類似性において密にスケーリングされモデル学習への挑戦となりつつも、人口における多様性によってサンプル分布が豊かになります。最後に、複製されたキャラクターをUnity3Dシーンでレンダリングすることで、「ClonedPerson」と呼ばれるより現実的な仮想データセットが作成されました。このデータセットには5,621人のアイデンティティと887,766枚の画像が含まれています。実験結果は、「ClonedPerson」で訓練されたモデルが他の一般的な実世界および合成人物再識別データセットで訓練されたモデルよりも優れた汎化性能を持つことを示しています。ClonedPersonプロジェクトは以下のURLで公開されています: https://github.com/Yanan-Wang-cs/ClonedPerson.