MetaFun : Méta-apprentissage avec des mises à jour fonctionnelles itératives

Nous proposons une approche fonctionnelle d’encodage-décodage pour l’apprentissage métasupervisé, dans laquelle les données étiquetées sont encodées sous forme de représentation fonctionnelle à dimension infinie, plutôt que sous une forme finie. En outre, au lieu de produire directement cette représentation, nous apprenons une règle de mise à jour neuronale simulant une descente de gradient fonctionnel, qui améliore itérativement la représentation. La représentation finale est ensuite utilisée pour conditionner le décodeur afin de réaliser des prédictions sur des données non étiquetées. Notre méthode constitue la première à démontrer le succès des approches d’apprentissage métasupervisé de type encodage-décodage, telles que les processus neuronaux conditionnels, sur des benchmarks à grande échelle pour la classification à très peu d’exemples, comme miniImageNet et tieredImageNet, où elle atteint des performances de pointe.