
초록
우리는 경사 하강법으로 훈련된 모든 모델과 호환되며, 분류, 회귀, 강화 학습 등 다양한 학습 문제에 적용할 수 있는 모델 독립적인 메타-러닝 알고리즘을 제안합니다. 메타-러닝의 목표는 다양한 학습 과제를 통해 모델을 훈련시켜, 새로운 학습 과제를 해결하기 위해 적은 수의 훈련 샘플만 사용하는 것입니다. 우리의 접근 방식에서는 모델의 매개변수를 명시적으로 훈련하여, 새로운 과제에서 적은 양의 훈련 데이터로 몇 번의 경사 하강 단계만 거쳐도 좋은 일반화 성능을 낼 수 있도록 합니다. 결과적으로, 우리의 방법은 모델이 미세 조정(fine-tune)하기 쉬워지도록 훈련시키는 것입니다. 우리는 이 접근 방식이 두 개의 소수 샘플 이미지 분류 벤치마크에서 최고 수준의 성능을 보여주며, 소수 샘플 회귀에서도 좋은 결과를 내고, 신경망 정책을 사용한 정책 경사 강화 학습에서 미세 조정 속도를 가속화한다는 것을 입증하였습니다.