
초록
대부분의 기존 사람 재식별(re-id) 방법은 각 카메라 쌍에 대해 수동으로 라벨링된 쌍별 훈련 데이터를 사용하여 감독된 모델 학습에 의존합니다. 이는 모든 카메라 쌍에 대한 이미지 양성 및 음성 쌍의 완전한 신원 라벨링이 부족하기 때문에 실제 re-id 배포에서 확장성이 떨어지는 문제를 초래합니다. 본 연구에서는 이 문제를 해결하기 위해 비감독 re-id 딥러닝 접근법을 제안합니다. 이 접근법은 비디오에서 자동으로 생성된 사람 트랙렛(tracklet) 데이터로부터 근본적인 re-id 판별 정보를 점진적으로 발견하고 활용할 수 있으며, 엔드투엔드(end-to-end) 모델 최적화를 통해 이를 수행합니다. 우리는 트랙렛 연관 비감독 딥러닝(Tracklet Association Unsupervised Deep Learning, TAUDL) 프레임워크를 제시하며, 이 프레임워크는 각 카메라 내(where-camera) 트랙렛 연관(labelling)과 카메라 간(cross-camera) 트랙렛 상관관계를 동시에 학습하여 가장 가능성이 높은 카메라 뷰 간의 트랙렛 관계를 최대한 발견하는 것을 특징으로 합니다. 광범위한 실험 결과는 제안된 TAUDL 모델이 여섯 개의 사람 재식별 벤치마킹 데이터셋을 사용하여 기존의 비감독 및 도메인 적응 re-id 방법보다 우수함을 입증하였습니다.