GuidedMix-Net: 라벨링된 이미지를 참조로 하여 의사 마스크 개선을 학습하기

반감독 학습은 제한된 수의 레이블된 예시로부터 모델을 구축하는 것을 목표로 하는 도전적인 문제이다. 이 문제를 해결하기 위해 수많은 방법이 제안되었으며, 대부분의 기법은 레이블되지 않은 샘플의 예측 일관성만을 활용하여 네트워크를 정규화하는 데 초점을 맞추고 있다. 그러나 레이블된 데이터와 레이블되지 않은 데이터를 별도로 다루는 방식은 레이블된 예시로부터 학습된 풍부한 사전 지식을 폐기하게 되고, 레이블된 이미지 쌍과 레이블되지 않은 이미지 쌍 간의 특징 상호작용을 탐색하지 못하는 문제를 야기한다. 본 논문에서는 레이블된 정보를 활용하여 레이블되지 않은 샘플의 학습을 안내하는 새로운 반감독 세그멘테이션 방법인 GuidedMix-Net을 제안한다. 구체적으로, 레이블된 데이터와 레이블되지 않은 데이터 간의 특징 정렬 목표를 도입하여 잠재적으로 유사한 이미지 쌍을 탐지한 후, 이를 바탕으로 혼합 입력을 생성한다. 제안하는 상호정보 전이(MITrans)는 클러스터 가정을 기반으로 하며, 혼합된 데이터 공간 내에서 레이블되지 않은 데이터의 특징을 점진적으로 보다 정교하게 개선하는 데 효과적인 지식 모듈로 입증되었다. 레이블된 예시의 정보를 활용하고 레이블되지 않은 데이터의 학습을 안내하기 위해, 레이블되지 않은 데이터에 대해 고품질의 가상 마스크를 생성하는 마스크 생성 모듈도 제안한다. 레이블된 데이터에 대한 감독 학습과 함께, 혼합 데이터로부터 생성된 가상 마스크를 활용하여 레이블되지 않은 데이터의 예측도 함께 학습한다. PASCAL VOC 2012, PASCAL-Context, Cityscapes에서 실시한 광범위한 실험을 통해 본 방법이 효과적임을 입증하였으며, 기존 최고 수준의 기법 대비 mIoU를 무려 +7% 향상시켜 경쟁력 있는 세그멘테이션 정확도를 달성하였다.