
우리는 사람 재식별을 위한 부분 정렬 표현을 학습하는 새로운 네트워크를 제안합니다. 이 모델은 자세나 시점 변화 및 신뢰성 낮은 탐지로 인해 인간 검출 간에 발생하는 부분 미스얼라이먼트 문제를 처리합니다. 우리의 모델은 외관 맵 추출을 위한 스트림과 신체 부분 맵 추출을 위한 다른 스트림으로 구성된 두 스트림 네트워크와 부분 정렬 맵을 생성하고 공간적으로 풀링하는 이중선형 풀링 레이어로 구성됩니다. 부분 정렬 맵의 각 로컬 특징은 해당 로컬 외관 및 신체 부분 설명자들의 이중선형 매핑을 통해 얻어집니다. 우리의 새로운 표현은 해당 신체 부분의 로컬 유사성을 결합한 가중 외관 유사성의 집합과 동일한 견고한 이미지 매칭 유사성을 제공합니다. 이 부분 정렬 표현은 부분 미스얼라이먼트 문제를 크게 줄입니다. 또한, 우리의 접근 방식은 각 신체 부위의 바운딩 박스에서 표현을 추출하는 등의 포즈 안내 표현보다 우수한 점이 있습니다. 이는 사람 재식별에 최적화된 부분 설명자를 학습하기 때문입니다. 네트워크를 훈련시키기 위해, 우리의 접근 방식은 사람 재식별 데이터셋에 대한 어떠한 부분 주석도 필요하지 않습니다. 대신, 기존의 포즈 추정 네트워크의 사전 훈련된 하위 네트워크를 사용하여 부분 하위 스트림을 초기화하고, 전체 네트워크를 재식별 손실을 최소화하도록 훈련시킵니다. 우리는 Market-1501, CUHK03, CUHK01, DukeMTMC 등 표준 벤치마크 데이터셋과 표준 비디오 데이터셋 MARS에서 기존 최신 방법론들보다 우수함을 보여써 우리 접근 방식의 효과성을 검증하였습니다.