VehicleNet: 차량 재식별을 위한 강건한 특징 표현 학습
차량 재식별(Re-identification, re-id)의 핵심 과제 중 하나는 다양한 카메라 시점에서 발생하는 차량 내부 클래스 간의 큰 변동성에도 불구하고 강건하고 구분력 있는 시각적 표현을 학습하는 것이다. 기존의 차량 데이터셋은 학습 이미지 수와 시점 측면에서 제한적이므로, 네 가지 공개 차량 데이터셋을 활용하여 고유한 대규모 차량 데이터셋(VehicleNet)을 구축하고, VehicleNet에서 더 강건한 시각적 표현을 학습하기 위한 새로운 그러나 효과적인 두 단계 점진적 접근법을 제안한다. 본 연구의 첫 번째 단계는 기존 분류 손실을 이용하여 모든 도메인(즉, 소스 차량 데이터셋)에 대한 일반적인 표현을 학습하는 것이다. 이 단계는 훈련 도메인과 테스트 도메인 간의 완전한 정렬을 완화하며, 타깃 차량 도메인에 무관하기 때문이다. 두 번째 단계는 VehicleNet과 임의의 타깃 도메인 간의 분포 차이를 최소화함으로써, 타깃 차량 데이터셋에 기반하여 학습된 모델을 순수하게 미세 조정하는 것이다. 본 연구에서는 다중 소스 데이터셋인 VehicleNet의 구성과 두 단계 점진적 표현 학습의 효과를 광범위한 실험을 통해 논의한다. AICity 챌린지의 사적 테스트 세트에서 86.07%의 mAP로 최신 기술 수준의 정확도를 달성하였으며, VeRi-776 및 VehicleID와 같은 다른 두 개의 공개 차량 재식별 데이터셋에서도 경쟁력 있는 성과를 보였다. 본 연구가 제안하는 새로운 VehicleNet 데이터셋과 학습된 강건한 표현이 실제 환경에서의 차량 재식별 기술 발전에 기여하기를 기대한다.