
전달 추론(transductive inference)은 소수 샘플 학습(few-shot learning) 환경에서 데이터 부족 문제를 해결하는 효과적인 방법이다. 소수 샘플 기반 거리 측정 방식에서 널리 사용되는 전달 추론 기법 중 하나는 각 클래스의 프로토타입을 가장 신뢰도가 높은 쿼리 예시들의 평균으로 업데이트하거나, 모든 쿼리 샘플에 대해 신뢰도 가중 평균을 계산하는 것이다. 그러나 이 방법의 한계는 모델의 신뢰도(confidence)가 신뢰할 수 없을 수 있다는 점이며, 이는 잘못된 예측을 초래할 수 있다. 이러한 문제를 해결하기 위해, 우리는 각 쿼리 샘플에 대해 메타학습을 통해 신뢰도를 학습하고, 미분류 쿼리에 최적의 가중치를 부여함으로써, 미지의 작업에 대한 모델의 전달 추론 성능을 향상시키는 방법을 제안한다. 이를 위해 우리는 다양한 모델 및 데이터 편향 하에서 작업 분포(task distribution)에 대해 입력에 적응하는 거리 메트릭을 메타학습함으로써, 미지 작업에 대한 다양한 불확실성 하에서도 모델 예측의 일관성을 강제한다. 또한, 고차원 임베딩 벡터의 다양한 차원 간 예측 일관성을 명시적으로 강화하는 정규화 기법을 추가로 제안한다. 제안한 메타학습된 신뢰도를 갖춘 소수 샘플 학습 모델은 네 가지 벤치마크 데이터셋에서 검증되었으며, 강력한 최근 기준 모델들을 크게 능가하고 새로운 최고 성능(state-of-the-art) 결과를 달성하였다. 또한 반감독 소수 샘플 학습 작업에 대한 적용에서도 기존 기준 모델 대비 상당한 성능 향상이 나타났다. 본 연구의 알고리즘 소스 코드는 https://github.com/seongmin-kye/MCT 에서 공개되어 있다.