11일 전

데이터셋에서 채굴한 보조 정보를 이용한 고정확도 비지도 인물 재식별 방법

Hehan Teng, Tao He, Yuchen Guo, Guiguang Ding
데이터셋에서 채굴한 보조 정보를 이용한 고정확도 비지도 인물 재식별 방법
초록

감독 학습 기반의 사람 재식별(Re-Identification, re-ID) 방법은 고품질의 크로스 카메라 학습 레이블에 크게 의존하며, 이는 실세계 응용에서의 모델 도입을 크게 저해한다. 반면 비감독 학습 기반의 사람 재식별 방법은 데이터 주석화 비용을 줄일 수 있으나, 여전히 감독 학습 기반의 성능에 크게 미치지 못하고 있다. 본 논문에서는 데이터셋에서 탐색한 보조 정보를 활용하여 다중 모달 특징 학습을 효과적으로 수행한다. 구체적으로 카메라 정보, 시계열 정보, 공간 정보를 활용하며, 카메라의 스타일 편향 분석, 보행자의 운동 경로 특성 분석, 카메라 네트워크의 위치 구조 분석을 바탕으로 세 가지 새로운 모듈을 설계한다. 각각의 모듈은 시간 겹침 제약(Time-Overlapping Constraint, TOC), 공간-시계열 유사도(Spatio-Temporal Similarity, STS), 동일 카메라 페널티(Same-Camera Penalty, SCP)이다. 이 보조 정보는 관계 제약을 구축하거나 시각적 특징과 융합함으로써 모델 성능 및 추론 정확도를 향상시킨다. 또한, 본 논문은 세 가지 효과적인 학습 기법을 제안한다. 즉, 제한된 레이블 부드러움 교차 엔트로피 손실(Restricted Label Smoothing Cross Entropy Loss, RLSCE), 가중치 적응형 트립렛 손실(Weight Adaptive Triplet Loss, WATL), 동적 학습 반복 횟수(Dynamic Training Iterations, DTI)이다. 제안된 방법은 MARS 데이터셋에서 72.4%, DukeMTMC-VideoReID 데이터셋에서 81.1%의 mAP 성능을 달성하였다. 보조 정보 활용 모듈을 결합한 최종 모델은 DukeMTMC 데이터셋에서 mAP 89.9%의 성능을 기록하며, TOC, STS, SCP 각각이 성능 향상에 상당한 기여를 하였다. 본 논문에서 제안한 방법은 기존의 대부분의 비감독 재식별 방법을 능가하며, 비감독과 감독 학습 간의 성능 격차를 좁히는 데 기여하였다. 본 연구의 코드는 https://github.com/tenghehan/AuxUSLReID 에서 공개되어 있다.