
픽셀 단위 마스크를 세부적인 의미 분할 작업, 예를 들어 인간 해석(human parsing)에 라벨링하는 것은 여전히 어려운 과제입니다. 서로 다른 의미 부분 사이의 모호한 경계와 비슷한 외관을 가진 카테고리는 일반적으로 혼동을 일으키며, 이로 인해 참조 마스크에 예상치 못한 노이즈가 발생합니다. 이러한 라벨 노이즈와 함께 학습하는 문제를 해결하기 위해 본 연구에서는 Self-Correction for Human Parsing (SCHP)라는 정화 전략을 소개합니다. 이 전략은 감독된 라벨과 학습된 모델의 신뢰성을 점진적으로 향상시키는 것을 목표로 합니다.특히, 초기화 단계에서 부정확한 주석으로 훈련된 모델을 출발점으로 삼아, 순환 학습 스케줄러(cyclically learning scheduler)를 설계하여 현재 학습된 모델과 이전 최적 모델을 온라인 방식으로 반복적으로 통합함으로써 더 신뢰할 수 있는 의사 마스크(pseudo-masks)를 추론합니다. 또한, 이러한 수정된 라벨은 다시 모델 성능을 더욱 향상시키는 역할을 합니다. 이렇게 하면 자가 정정 학습 주기 동안 모델과 라벨이 서로 상호작용하며 더욱 견고하고 정확해집니다.SCHP의 우수성 덕분에, 우리는 두 개의 유명한 단일 인물 인간 해석 벤치마크인 LIP 및 Pascal-Person-Part 데이터셋에서 최고의 성능을 달성했습니다. 우리의 전체 시스템은 CVPR2019 LIP 챌린지에서 1위를 차지했습니다. 코드는 https://github.com/PeikeLi/Self-Correction-Human-Parsing에서 제공됩니다.