Apprentissage métas non supervisé par un modèle à énergie sur l'espace latent de couplage de vecteurs symboliques

L’apprentissage méta vise à apprendre un modèle à partir d’un flux de tâches de manière à ce que ce modèle puisse généraliser à travers les tâches et s’adapter rapidement à de nouvelles tâches. Nous proposons d’apprendre un modèle fondé sur une énergie (Energy-Based Model, EBM) dans l’espace latent d’un modèle génératif hiérarchique descendant, de sorte que l’EBM défini dans l’espace latent à faible dimension puisse être appris efficacement et s’adapter rapidement à chaque tâche. En outre, le terme d’énergie relie un vecteur latent continu à une étiquette symbolique sous forme de vecteur one-hot. Cette formulation couplée permet à ce modèle d’être appris de manière non supervisée lorsque les étiquettes sont inconnues. Notre modèle est entraîné de manière non supervisée durant la phase de méta-entraînement et évalué de manière semi-supervisée durant la phase de méta-test. Nous évaluons notre modèle sur des benchmarks largement utilisés pour l’apprentissage méta à faible exemple, à savoir Omniglot et Mini-ImageNet. Les résultats montrent que notre modèle atteint une performance compétitive ou supérieure par rapport aux modèles d’état de l’art précédents en apprentissage méta.