Confidence apprise par méta-apprentissage pour l'apprentissage peu répété

L’inférence transductive constitue un moyen efficace de surmonter le problème de déficience des données dans les scénarios d’apprentissage peu supervisé. Une technique populaire d’inférence transductive pour les approches métriques à peu de exemples consiste à mettre à jour le prototype de chaque classe en prenant la moyenne des exemples de requête les plus fiables, ou une moyenne pondérée par la confiance de tous les échantillons de requête. Toutefois, un inconvénient majeur réside dans le fait que la confiance du modèle peut s’avérer peu fiable, entraînant potentiellement des prédictions erronées. Pour résoudre ce problème, nous proposons d’effectuer une méta-apprentissage de la confiance pour chaque échantillon de requête, afin d’attribuer des poids optimaux aux échantillons non étiquetés, de manière à améliorer les performances de l’inférence transductive du modèle sur des tâches inédites. Cela est réalisé en apprenant méta-métriquement une métrique de distance adaptative aux entrées sur une distribution de tâches, sous diverses perturbations du modèle et des données, ce qui impose une cohérence des prédictions du modèle face à différentes incertitudes sur des tâches inconnues. En outre, nous proposons également une régularisation qui impose explicitement la cohérence des prédictions sur les différentes dimensions d’un vecteur d’embedding à haute dimension. Nous validons notre modèle d’apprentissage peu supervisé avec une confiance méta-apprise sur quatre jeux de données standard, où il surpassé largement des baselines récentes et atteint de nouveaux résultats d’état de l’art. Une application supplémentaire au cadre d’apprentissage peu supervisé semi-supervisé confirme également des améliorations significatives par rapport aux méthodes de référence. Le code source de notre algorithme est disponible à l’adresse suivante : https://github.com/seongmin-kye/MCT.