Adaptation généralisée pour l'apprentissage peu supervisé

De nombreuses recherches sur l’apprentissage peu supervisé (few-shot learning) reposent sur deux étapes : l’entraînement préalable du modèle de base, suivie de l’adaptation au modèle nouveau. Dans cet article, nous proposons d’utiliser un apprenant de base à forme fermée, qui contraint l’étape d’adaptation à partir du modèle de base pré-entraîné afin d’obtenir un modèle nouveau généralisable de meilleure qualité. Une analyse théorique suivante justifie cette approche et indique comment entraîner un modèle de base bien généralisable. Nous menons ensuite des expérimentations sur quatre benchmarks, où nous atteignons des performances de pointe dans tous les cas. Notamment, nous obtenons un taux de précision de 87,75 % sur miniImageNet avec 5 exemples par classe, ce qui représente une amélioration d’environ 10 % par rapport aux méthodes existantes.