Command Palette
Search for a command to run...
{WangMeng Zuo Wei-Shi Zheng Shanshan Zhang Xinyang Jiang Cairong Zhao Shuguang Dou}

초록
가려진 사람 재식별(ReID)은 보다 많은 배경 노이즈와 불완전한 전경 정보로 인해 도전적인 과제이다. 기존의 인간 파싱 기반 ReID 방법들은 세분화된 픽셀 수준의 의미적 정렬을 통해 이 문제를 다루고 있으나, 인간 파싱 모델의 성능에 크게 의존한다. 대부분의 지도 학습 기반 방법들은 도메인 간 사람 부위 레이블을 활용하여 ReID 모델 외부에 별도의 인간 파싱 모델을 학습시키는 방식을 제안하지만, 이는 비용이 많이 드는 레이블링 과정과 도메인 갭 문제를 야기한다. 반면 비지도 학습 기반 방법들은 ReID 모델 내부에 특징 클러스터링 기반의 인간 파싱 과정을 통합하지만, 감독 신호의 부재로 인해 만족스러운 세분화 결과를 얻기 어렵다. 본 논문에서는 ReID 학습 데이터셋 내에 이미 존재하는 사전 정보를 추가적인 레이블링 없이 인간 파싱 모델 학습을 위한 감독 신호로 직접 활용할 수 있음을 주장한다. 이를 위해 약한 감독 기반의 인간 공파싱 네트워크를 ReID 네트워크에 통합하여, 동일한 보행자의 서로 다른 이미지 간에 공유되는 정보를 활용하는 새로운 프레임워크인 Human Co-parsing Guided Alignment (HCGA)를 제안한다. 구체적으로, 인간 공파싱 네트워크는 전역 의미, 국부적 공간, 배경이라는 세 가지 일관성 기준에 의해 약한 감독을 받는다. 이후 사람 ReID 네트워크로부터 추출한 의미 정보와 심층 특징을 가이드된 정렬 모듈에 입력함으로써 전경 및 인간 부위에 대한 특징을 효과적으로 추출할 수 있다. 두 개의 가려진 사람 데이터셋과 두 개의 전체 사람 데이터셋에서 수행한 실험 결과는 제안한 방법의 우수성을 입증한다. 특히 Occluded-DukeMTMC 데이터셋에서 70.2%의 Rank-1 정확도와 57.5%의 mAP를 달성하여 뛰어난 성능을 보였다.
벤치마크
| 벤치마크 | 방법론 | 지표 |
|---|---|---|
| person-re-identification-on-occluded-dukemtmc | HCGA | Rank-1: 70.1 mAP: 57.5 |