
많은 중요한 컴퓨터 비전 시나리오에서 라벨이 붙지 않은 데이터는 풍부하지만, 라벨은 부족하고 얻기 어렵습니다. 이에 따라, 라벨이 없는 데이터를 활용하여 지도 분류기의 성능을 향상시키는 준지도 학습이 최근 문헌에서 많은 주목을 받고 있습니다. 준지도 알고리즘 중 하나로 대표되는 공동학습(co-training) 알고리즘이 있습니다. 공동학습 알고리즘은 서로 다른 독립적이고 충분한 표현 또는 "시각(view)"에 접근할 수 있는 두 개의 다른 모델을 활용하여 더 나은 예측을 함께 수행합니다. 이러한 각 모델은 라벨이 없는 데이터 포인트에 대한 의사라벨(pseudo-labels)을 생성하여 다른 모델의 성능을 개선하는 데 사용됩니다. 우리는 독립적인 시각이 사용할 수 없는 일반적인 경우에도 사전 학습된 모델을 사용하여 이러한 시각을 저렴하게 구축할 수 있음을 보여줍니다. 구축된 시각에서의 공동학습은 우리가 구축한 개별 시각보다 우수한 성능 향상을 가져오며, 최근 준지도 학습 접근법과 유사한 성능을 보입니다.우리는 공동학습보다 두 가지 장점을 가진 새로운 준지도 학습 알고리즘인 메타 공동학습(Meta Co-Training)을 제시합니다: (i) 서로 다른 시각 간 정보 내용의 차이가 크더라도 학습이 더 견고하며, (ii) 각 반복마다 처음부터 재훈련(retraining from scratch)할 필요가 없습니다. 우리의 방법은 ImageNet-10%에서 이전 연구보다 약 4.7%의 오류율 감소를 달성하여 새로운 최고 성능(state-of-the-art performance)을 기록하였습니다. 또한 우리의 방법은 여러 다른 세밀한 이미지 분류 데이터셋에서도 이전 준지도 학습 연구보다 우수한 성능을 보였습니다.