신체 부위 기반 표현 학습을 이용한 가려진 사람 재식별

가림된 사람 재식별(Occluded Person Re-Identification, ReID)은 가림된 사람 이미지를 전체적인 이미지와 일치시키는 사람 검색 작업입니다. 가림된 ReID 문제를 해결하기 위해 부위 기반 방법이 유용하다는 것이 입증되었습니다. 이 방법들은 세부 정보를 제공하며 부분적으로 보이는 인간의 몸을 표현하는 데 적합합니다. 그러나 두 가지 이유로 인해 부위 기반 모델을 훈련시키는 것은 어려운 작업입니다. 첫째, 개별 신체 부위의 외관은 전반적인 외관보다 덜 구분력이 있습니다(다른 ID라도 같은 지역적 외관을 가질 수 있음). 이는 정체성 라벨을 사용한 표준 ReID 훈련 목표가 지역 특징 학습에 적합하지 않다는 것을 의미합니다. 둘째, ReID 데이터셋에는 인간의 지형학적 주석이 제공되지 않습니다. 본 연구에서는 이러한 문제들을 해결하기 위한 신체 부위 기반 ReID 모델인 BPBreID를 제안합니다. 먼저, 신체 부위 주의 맵을 예측하고 ReID 대상의 신체 부위 기반 특징을 생성하는 두 개의 모듈을 설계하였습니다. 그 다음으로, GiLt라는 새로운 훈련 방식을 제안하여 가림과 비구분적인 지역 외관에 견디는 부위 기반 표현을 학습할 수 있도록 하였습니다. 일반적인 전체 이미지 및 가림된 데이터셋에서 수행한 광범위한 실험 결과, 제안한 방법의 효과성이 확인되었으며, 특히 어려운 Occluded-Duke 데이터셋에서 최신 방법들보다 0.7% mAP(median Average Precision)와 5.6% rank-1 정확도를 높게 나타냈습니다. 본 연구의 코드는 https://github.com/VlSomers/bpbreid에서 이용 가능합니다.