비파라미터적 지원 샘플을 이용한 시각적 특징의 반감독 학습: 시각 할당 예측을 통한 접근

이 논문은 지원 샘플(지원 데이터)을 활용하여 시각적 할당을 예측함으로써 학습하는 새로운 방법인 PAWS(Predicting View Assignments with Support samples)를 제안한다. 이 방법은 동일한 레이블이 없는 인스턴스에 대한 다양한 시각(뷰)이 유사한 의사 레이블(pseudo-label)을 할당받도록 보장하는 일관성 손실(consistency loss)을 최소화하도록 모델을 학습시킨다. 의사 레이블은 매개변수화되지 않은 방식으로 생성되며, 이미지의 시각 표현과 무작위로 추출한 레이블이 부여된 이미지들의 표현을 비교함으로써 이루어진다. 시각 표현과 레이블이 부여된 표현 간의 거리 정보를 이용해 클래스 레이블에 대한 가중치를 부여하며, 이를 우리는 소프트 의사 레이블(soft pseudo-label)로 해석한다. 이러한 비매개변수적 방식으로 레이블이 부여된 샘플을 통합함으로써 PAWS는 BYOL 및 SwAV와 같은 자기지도 학습(self-supervised) 방법에서 사용되는 거리 기반 손실(distance-metric loss)을 반지도 학습(semi-supervised) 환경으로 확장한다. 이 접근법은 단순하지만, 다양한 아키텍처에서 기존의 반지도 학습 방법들을 능가하며, 레이블이 10% 또는 1%만 있는 ImageNet 데이터셋을 사용해 학습한 ResNet-50 모델에 대해 각각 75.5%, 66.5%의 top-1 정확도를 기록하며 새로운 최고 성능을 달성한다. 또한 PAWS는 이전 최고 성능을 기록한 방법들보다 학습 시간을 4배에서 12배까지 줄일 수 있다.