
초록
최근 소량 샘플 학습(few-shot learning) 분야에서 상당한 발전이 이루어졌습니다. 이러한 발전의 대부분은 소량 샘플 학습을 메타학습(meta-learning) 문제로 접근함으로써 이루어졌습니다. 모델 독립적 메타학습(Model-Agnostic Meta-Learning, MAML)은 현재 메타학습을 통해 소량 샘플 학습을 수행하는 가장 우수한 방법 중 하나입니다. MAML은 단순하면서도 우아하고 매우 강력하지만, 신경망 구조에 매우 민감하며, 종종 훈련 과정에서 불안정성을 초래하고, 훈련 안정화와 높은 일반화 성능을 달성하기 위해 고된 하이퍼파라미터 탐색이 필요하며, 훈련 및 추론 시 모두 매우 계산적으로 비용이 많이 듭니다. 본 논문에서는 이러한 문제를 해결하고 시스템의 안정성을 개선하며 MAML의 일반화 성능, 수렴 속도 및 계산 부하를 크게 향상시키는 다양한 수정 사항을 제안합니다. 이를 MAML++이라고 명명하였습니다.