Meta-SGD : Apprendre à apprendre rapidement pour l'apprentissage par few-shots

L'apprentissage à partir de quelques exemples (few-shot learning) est un défi pour les algorithmes d'apprentissage qui traitent chaque tâche de manière isolée et à partir de zéro. En revanche, l'apprentissage métadynamique (meta-learning) apprend à partir de nombreuses tâches connexes un méta-apprenant capable d'acquérir une nouvelle tâche plus précisément et rapidement avec moins d'exemples, où le choix des méta-apprenants est crucial. Dans cet article, nous développons Meta-SGD, un méta-apprenant facilement entraînable similaire à l'SGD qui peut initialiser et adapter tout apprenant différentiable en une seule étape, tant pour l'apprentissage supervisé que pour l'apprentissage par renforcement. Comparé au méta-apprenant populaire LSTM, Meta-SGD est conceptuellement plus simple, plus facile à implémenter et peut être appris plus efficacement. Par rapport au dernier méta-apprenant MAML, Meta-SGD possède une capacité beaucoup plus élevée en apprenant non seulement l'initialisation de l'apprenant, mais aussi la direction de mise à jour et le taux d'apprentissage de l'apprenant, tout cela dans un seul processus d'apprentissage métadynamique. Meta-SGD montre des performances hautement compétitives pour l'apprentissage à partir de quelques exemples sur la régression, la classification et l'apprentissage par renforcement.