Classification à faible apprentissage basée sur le transfert d'apprentissage utilisant une application de transport optimal à partir de l'espace latent prétraité du réseau neuronal principal

Le MetaDL Challenge 2020 s’est concentré sur les tâches de classification d’images dans des scénarios à peu d’exemples (few-shot). Ce papier présente la deuxième meilleure soumission de la compétition. Notre approche basée sur l’apprentissage méta modifie la distribution des classes dans un espace latente généré par un réseau principal (backbone) afin que celle-ci suive plus étroitement une distribution gaussienne. Après cette opération, que nous appelons l’algorithme de Transformation de l’Espace Latente, les centres des classes sont ensuite alignés de manière itérative via une procédure similaire à l’algorithme d’Expectation-Maximisation, afin d’exploiter efficacement les informations contenues dans les données non étiquetées, souvent fournies en complément des quelques exemples étiquetés. Pour réaliser cet alignement, nous utilisons une application du transport optimal fondée sur l’algorithme de Sinkhorn. Nos expériences montrent que cette approche surpasse non seulement les méthodes antérieures, mais aussi d’autres variantes de l’algorithme, notamment celles basées sur les k plus proches voisins (k-NN), les modèles à mélanges gaussiens, etc.