Amélioration de la classification d’images en peu d’exemples grâce à des exemples non étiquetés

Nous proposons une méthode de méta-apprentissage transductif qui utilise des exemples non étiquetés pour améliorer les performances de classification d’images en peu d’exemples. Notre approche combine une procédure de clustering souple k-means basée sur une distance de Mahalanobis régularisée avec un extracteur de caractéristiques neurales adaptatif amélioré, afin d’obtenir une précision de classification améliorée au moment du test grâce à l’utilisation de données non étiquetées. Nous évaluons notre méthode sur des tâches d’apprentissage peu d’exemples transductif, dont l’objectif est de prédire conjointement les étiquettes des exemples de requête (test) à partir d’un ensemble d’exemples de support (entraînement). Nos résultats atteignent l’état de l’art sur les benchmarks Meta-Dataset, mini-ImageNet et tiered-ImageNet. Tous les modèles entraînés ainsi que le code source sont désormais disponibles publiquement sur github.com/plai-group/simple-cnaps.