7일 전

VehicleNet: 차량 재식별을 위한 강건한 시각적 표현 학습

Zhedong Zheng, Tao Ruan, Yunchao Wei, Yi Yang, Tao Mei
VehicleNet: 차량 재식별을 위한 강건한 시각적 표현 학습
초록

차량 재식별(Re-identification, re-id)의 핵심 과제 중 하나는 다양한 카메라 시점에서 발생하는 차량 내부 클래스(variation)의 상당한 차이에도 불구하고, 강력하고 구분력 있는 시각적 표현을 학습하는 것이다. 기존의 차량 데이터셋은 학습 이미지 수와 시점 측면에서 제한이 있어, 본 연구에서는 네 가지 공개 차량 데이터셋을 활용하여 고유한 대규모 차량 데이터셋(VehicleNet)을 구축하고, VehicleNet에서 더 강력한 시각적 표현을 학습하기 위한 간단하면서도 효과적인 두 단계 점진적 접근법을 제안한다. 본 연구의 첫 번째 단계는 기존의 분류 손실을 활용하여 모든 도메인(즉, 소스 차량 데이터셋)에 대해 일반적인 표현을 학습하는 것이다. 이 단계는 훈련 도메인과 테스트 도메인 간의 완전한 정렬을 완화하며, 타겟 차량 도메인에 무관하기 때문에 이를 고려하지 않는다. 두 번째 단계는 VehicleNet과 임의의 타겟 도메인 사이의 분포 차이를 최소화함으로써, 단지 타겟 차량 데이터셋에 기반하여 사전 학습된 모델을 미세 조정하는 것이다. 본 연구에서는 제안하는 다중 소스 데이터셋인 VehicleNet과 두 단계 점진적 표현 학습의 효과를 광범위한 실험을 통해 평가한다. AICity Challenge의 사적 테스트 세트에서 86.07%의 mAP로 최신 기술 수준의 정확도를 달성하였으며, VeRi-776 및 VehicleID와 같은 다른 두 가지 공개 차량 재식별 데이터셋에서도 경쟁력 있는 성과를 보였다. 본 연구에서 제안하는 새로운 VehicleNet 데이터셋과 학습된 강력한 표현이 현실 환경에서의 차량 재식별 기술 발전에 기여하기를 기대한다.