
초록
메타러닝은 소수 샘플 학습(few-shot learning) 및 빠른 모델 적응을 구현하는 데 널리 사용되어 왔다. 메타러닝 방법 중 하나는 기반 기울기 하강(gradient-based learning)이 빠른 속도와 높은 일반화 성능을 가지도록 하기 위해 기울기 하강 과정을 제어하는 방법을 학습하려는 접근을 취한다. 본 연구에서는 신경망 모델 파라미터의 기울기 하강 과정을 저차원 잠재 공간(latent space)에 제한함으로써 제어하는 방법을 제안한다. 이 아이디어의 주요 과제는 파라미터 수가 너무 많은 디코더(decoder)가 필요하다는 점이다. 본 연구는 전형적인 구조를 갖춘 디코더를 설계하고, 디코더 내 일부 가중치를 공유함으로써 필요한 파라미터 수를 줄였다. 또한, 제안된 방법의 성능을 향상시키기 위해 앙상블 학습(ensemble learning)을 도입하였다. 실험 결과, 제안된 방법이 Omniglot 분류 및 miniImageNet 분류 과제에서 기존 방법들에 비해 뛰어난 성능을 보였음을 확인할 수 있었다.