
최근에 반감독 학습(Semi-Supervised Learning, SSL)은 매우 적은 수의 레이블만 제공되면서도 레이블이 없는 데이터를 효과적으로 활용할 수 있다는 점에서 큰 잠재력을 보여주고 있다. 본 논문에서는 훈련 과정에서 일부 에포크 동안 완전히 레이블을 무시하는 전략이 소량 샘플 환경에서 성능을 크게 향상시킬 수 있음을 보여준다. 구체적으로, 두 가지 작업을 동시에 학습하는 방법을 제안한다. 주 분류 작업은 레이블이 없는 데이터와 극히 적은 수의 레이블이 부여된 데이터 모두에 노출되며, 보조 작업은 어떠한 레이블 없이 데이터를 군집화하는 것을 목표로 한다. 자가 지도 학습에서 흔히 사용되는 수작업으로 설계된 사전 작업(pretext task)과 달리, 본 연구의 군집화 단계는 동일한 분류 네트워크와 헤드를 사용함으로써 주 작업의 부담을 완화하고, 과적합 없이 레이블 정보를 효과적으로 전파하고자 한다. 또한, 비지도 학습 단계에서 이미지 회전 분류라는 자가 지도 기법을 도입하여 훈련의 안정성을 높였다. 제안한 방법은 여러 최신의 SSL 알고리즘에 효과적으로 적용되었으며, 다양한 표준 반감독 학습 벤치마크에서 성능을 크게 향상시키고 실행 시간도 단축시켰다. 특히 CIFAR-10에서는 클래스당 단 4개의 레이블만을 사용해 92.6%의 정확도를 달성했고, SVHN에서는 96.9%의 정확도를 기록했다. 더불어 클래스당 1개, 2개, 3개 레이블의 극단적인 경우에서도 성능이 뚜렷이 향상되었으며, 본 모델이 학습한 특징이 데이터를 더 의미 있게 분리하는 데 효과적임을 보였다.