18일 전

장애된 사람 재식별을 위한 인간 공동 분할 지도형 어라이어먼트

{WangMeng Zuo, Wei-Shi Zheng, Shanshan Zhang, Xinyang Jiang, Cairong Zhao, Shuguang Dou}
장애된 사람 재식별을 위한 인간 공동 분할 지도형 어라이어먼트
초록

가려진 사람 재식별(ReID)은 보다 많은 배경 노이즈와 불완전한 전경 정보로 인해 도전적인 과제이다. 기존의 인간 파싱 기반 ReID 방법들은 세분화된 픽셀 수준의 의미적 정렬을 통해 이 문제를 다루고 있으나, 인간 파싱 모델의 성능에 크게 의존한다. 대부분의 지도 학습 기반 방법들은 도메인 간 사람 부위 레이블을 활용하여 ReID 모델 외부에 별도의 인간 파싱 모델을 학습시키는 방식을 제안하지만, 이는 비용이 많이 드는 레이블링 과정과 도메인 갭 문제를 야기한다. 반면 비지도 학습 기반 방법들은 ReID 모델 내부에 특징 클러스터링 기반의 인간 파싱 과정을 통합하지만, 감독 신호의 부재로 인해 만족스러운 세분화 결과를 얻기 어렵다. 본 논문에서는 ReID 학습 데이터셋 내에 이미 존재하는 사전 정보를 추가적인 레이블링 없이 인간 파싱 모델 학습을 위한 감독 신호로 직접 활용할 수 있음을 주장한다. 이를 위해 약한 감독 기반의 인간 공파싱 네트워크를 ReID 네트워크에 통합하여, 동일한 보행자의 서로 다른 이미지 간에 공유되는 정보를 활용하는 새로운 프레임워크인 Human Co-parsing Guided Alignment (HCGA)를 제안한다. 구체적으로, 인간 공파싱 네트워크는 전역 의미, 국부적 공간, 배경이라는 세 가지 일관성 기준에 의해 약한 감독을 받는다. 이후 사람 ReID 네트워크로부터 추출한 의미 정보와 심층 특징을 가이드된 정렬 모듈에 입력함으로써 전경 및 인간 부위에 대한 특징을 효과적으로 추출할 수 있다. 두 개의 가려진 사람 데이터셋과 두 개의 전체 사람 데이터셋에서 수행한 실험 결과는 제안한 방법의 우수성을 입증한다. 특히 Occluded-DukeMTMC 데이터셋에서 70.2%의 Rank-1 정확도와 57.5%의 mAP를 달성하여 뛰어난 성능을 보였다.