7日前
VehicleNet:Vehicle再識別のためのロバストな視覚表現学習
Zhedong Zheng, Tao Ruan, Yunchao Wei, Yi Yang, Tao Mei

要約
車両再識別(re-id)における根本的な課題の一つは、異なるカメラ視点間で顕著なクラス内変動(intra-class variation)が生じる中で、堅牢かつ識別力のある視覚的表現を学習することである。既存の車両データセットはトレーニング画像の数や視点の多様性に制限があるため、本研究では4つの公開車両データセットを統合することで、独自の大規模車両データセット(VehicleNet)を構築することを提案する。さらに、VehicleNetからより堅牢な視覚的表現を学習するための、シンプルかつ効果的な二段階段階的アプローチを設計した。本手法の第一段階では、従来の分類損失を用いて、すべてのドメイン(すなわち、ソース車両データセット)に対して汎用的な表現を学習する。この段階では、トレーニングドメインとテストドメイン間の完全なアライメントを強制しないようにすることで、ターゲット車両ドメインに依存しない柔軟性を確保する。第二段階では、学習済みモデルをターゲット車両データセットに基づいて微調整し、VehicleNetと任意のターゲットドメインとの間の分布差を最小化する。本研究では、多様な実験を通じて提案するマルチソースデータセットVehicleNetおよび二段階段階的表現学習の有効性を検証した。AICity Challengeのプライベートテストセットにおいて、86.07%のmAPという最先端の精度を達成し、VeRi-776およびVehicleIDの2つの公開車両re-idデータセットにおいても競争力ある結果を示した。本研究で構築したVehicleNetデータセットおよび学習された堅牢な表現が、実世界環境における車両再識別技術の発展に貢献することを期待している。