HyperAIHyperAI
il y a 2 mois

Apprentissage de l'auto-entraînement pour la classification semi-supervisée à faibles échantillons

Xinzhe Li; Qianru Sun; Yaoyao Liu; Shibao Zheng; Qin Zhou; Tat-Seng Chua; Bernt Schiele
Apprentissage de l'auto-entraînement pour la classification semi-supervisée à faibles échantillons
Résumé

La classification à faible nombre d'exemples (Few-shot classification, FSC) est un défi en raison de la rareté des données d'entraînement étiquetées (par exemple, un seul point de données étiqueté par classe). Le méta-apprentissage a montré qu'il pouvait obtenir des résultats prometteurs en apprenant à initialiser un modèle de classification pour la FSC. Dans cet article, nous proposons une nouvelle méthode de méta-apprentissage semi-supervisé appelée apprentissage à s'auto-étiqueter (Learning to self-train, LST), qui exploite les données non étiquetées et méta-apprend spécifiquement comment sélectionner et étiqueter ces données non supervisées afin d'améliorer davantage les performances. À cette fin, nous entraînons le modèle LST à travers un grand nombre de tâches de classification à faible nombre d'exemples semi-supervisées. Pour chaque tâche, nous entraînons un modèle de classification à faible nombre d'exemples pour prédire des pseudo-étiquettes pour les données non étiquetées, puis nous itérons les étapes d'auto-entraînement sur les données étiquetées et pseudo-étiquetées, chacune suivie d'un affinage. Nous apprenons également un réseau de pondération douce (Soft weighting network, SWN) pour optimiser les poids d'auto-entraînement des pseudo-étiquettes afin que celles de meilleure qualité contribuent davantage à l'optimisation par descente de gradient. Nous évaluons notre méthode LST sur deux benchmarks ImageNet pour la classification à faible nombre d'exemples semi-supervisée et obtenons des améliorations significatives par rapport à la méthode actuelle la plus avancée. Le code est disponible à l'adresse : https://github.com/xinzheli1217/learning-to-self-train.