HyperAIHyperAI
il y a 17 jours

Rectification du prototype pour l'apprentissage peu supervisé

Jinlu Liu, Liang Song, Yongqiang Qin
Rectification du prototype pour l'apprentissage peu supervisé
Résumé

L'apprentissage à très peu d'exemples exige la reconnaissance de nouvelles classes à partir de données étiquetées très limitées. Bien que le réseau prototypique s'avère utile dans les recherches existantes, l'entraînement sur une distribution étroite des données rares tend généralement à produire des prototypes biaisés. Dans cet article, nous identifions deux facteurs clés influençant ce processus : le biais intra-classe et le biais inter-classe. Nous proposons ensuite une méthode simple mais efficace de correction des prototypes dans un cadre transductif. Cette méthode utilise la propagation d'étiquettes afin de réduire le biais intra-classe, et un décalage de caractéristiques pour atténuer le biais inter-classe. Nous menons également une analyse théorique pour justifier sa rationalité ainsi que la borne inférieure de ses performances. L'efficacité de notre approche est démontrée sur trois benchmarks d'apprentissage à très peu d'exemples. Notamment, elle atteint des performances de pointe sur miniImageNet (70,31 % en 1-shot et 81,89 % en 5-shot) et tieredImageNet (78,74 % en 1-shot et 86,92 % en 5-shot).