
개인 재식별(Person Re-IDentification, Re-ID)은 검색 작업으로서 지난 10년 동안 엄청난 발전을 이루어냈습니다. 기존의 최신 방법들은 먼저 입력 이미지에서 특징을 추출하고, 그 다음 분류기를 통해 이를 범주화하는 유사한 프레임워크를 따릅니다. 그러나 학습 세트와 테스트 세트 간에 신원 중복이 없기 때문에, 추론 단계에서는 분류기가 종종 폐기됩니다. 오직 추출된 특징만이 거리 측정을 통해 개인 재식별에 사용됩니다. 본 논문에서는 개인 Re-ID에서 분류기의 역할을 다시 생각하고, 분류기를 이미지 특징에서 클래스 프로토타입으로의 투영으로 이해하는 새로운 관점을 제시합니다. 이 프로토타입은 정확히 분류기가 학습한 매개변수입니다. 이러한 관점에서, 우리는 입력 이미지의 신원을 모든 프로토타입과의 유사성으로 설명하며, 이를 더 구분력 있는 특징으로 활용하여 개인 Re-ID를 수행합니다. 이를 바탕으로, 우리는 추론 단계에서도 분류기의 기능을 유지하는 혁신적인 새로운 베이스라인 모델인 ProNet을 제안합니다. 클래스 프로토타입 학습을 용이하게 하기 위해, 트리플렛 손실(triplet loss)과 신원 분류 손실(identity classification loss)이 분류기에 의해 투영된 특징들에 적용됩니다. 더욱 개선된 ProNet++ 버전은 다중 세부 수준(multi-granularity) 설계를 추가함으로써 제시됩니다. 네 가지 벤치마크에서 수행된 실험은 우리의 제안 모델 ProNet이 간단하면서도 효과적이며, 이전 베이스라인들을 크게 능가한다는 것을 보여줍니다. 또한 ProNet++는 트랜스포머 기반 경쟁모델들보다 우수하거나 적어도 경쟁력 있는 결과를 달성하였습니다.