HyperAIHyperAI
il y a 17 jours

Compression maximale des distributions de caractéristiques du backbone pour un apprentissage peu chronologique efficace

Yuqing Hu, Vincent Gripon, Stéphane Pateux
Compression maximale des distributions de caractéristiques du backbone pour un apprentissage peu chronologique efficace
Résumé

La classification à peu de exemples est un problème difficile en raison de l’incertitude engendrée par l’utilisation de très peu d’échantillons étiquetés. Ces dernières années, de nombreuses méthodes ont été proposées, toutes ayant pour objectif commun de transférer les connaissances acquises lors de la résolution d’une tâche antérieure, ce qui est généralement réalisé à l’aide d’un extracteur de caractéristiques préentraîné. Dans la lignée de ces approches, nous proposons dans cet article une nouvelle méthode fondée sur le transfert, dont l’objectif est de transformer les vecteurs de caractéristiques afin qu’ils suivent une distribution plus proche d’une loi gaussienne, conduisant ainsi à une meilleure précision. Dans le cas d’un apprentissage à peu de exemples transductif, où des échantillons non étiquetés du test sont disponibles pendant l’entraînement, nous introduisons également un algorithme inspiré du transport optimal afin d’optimiser davantage les performances obtenues. À l’aide de benchmarks standardisés en vision, nous démontrons la capacité de la méthodologie proposée à atteindre des résultats de précision de pointe sur divers jeux de données, architectures de base et configurations de few-shot.