Débiaisage, calibration et amélioration des performances de l'apprentissage semi-supervisé par un projecteur d'ensemble simple

Des études récentes sur l'apprentissage semi-supervisé (SSL) ont connu un grand succès. Malgré leurs performances prometteuses, les méthodes actuelles de pointe tendent vers des conceptions de plus en plus complexes au détriment de l'introduction de plus de composants réseau et de procédures d'entraînement supplémentaires. Dans cet article, nous proposons une méthode simple nommée Ensemble Projectors Aided for Semi-supervised Learning (EPASS), qui se concentre principalement sur l'amélioration des plongements appris pour renforcer les performances des cadres existants d'apprentissage semi-supervisé par apprentissage conjoint contrastif. Contrairement aux méthodes standard, où les plongements appris à partir d'un projecteur sont stockés dans des banques mémoire pour être utilisés avec l'apprentissage contrastif, EPASS stocke les plongements ensemblistes provenant de plusieurs projecteurs dans des banques mémoire. En conséquence, EPASS améliore la généralisation, renforce la représentation des caractéristiques et augmente les performances. Par exemple, EPASS améliore les bases solides pour l'apprentissage semi-supervisé avec une réduction du taux d'erreur top-1 de 39,47%/31,39%/24,70%, en utilisant seulement 100k/1%/10% de données étiquetées pour SimMatch, et atteint un taux d'erreur top-1 de 40,24%/32,64%/25,90% pour CoMatch sur le jeu de données ImageNet. Ces améliorations sont cohérentes entre différentes méthodes, architectures de réseau et jeux de données, prouvant l'efficacité générale des méthodes proposées. Le code est disponible à l'adresse suivante : https://github.com/beandkay/EPASS.