LaplaceNet : Un réseau de neurones hybride graphe-énergie pour la classification semi-supervisée profonde

L’apprentissage semi-supervisé a récemment suscité un intérêt croissant, car il réduit la nécessité de grandes quantités de données étiquetées, souvent coûteuses, exigeant des connaissances spécialisées et s’avérant longues à collecter. Les progrès récents dans le domaine de la classification profonde semi-supervisée ont atteint des performances sans précédent, et l’écart entre l’apprentissage supervisé et l’apprentissage semi-supervisé ne cesse de se réduire. Cette amélioration des performances s’appuie sur l’intégration de nombreuses astuces techniques, des techniques d’augmentation puissantes ainsi que des schémas d’optimisation coûteux reposant sur des fonctions de perte multi-terme. Nous proposons un nouveau cadre, LaplaceNet, pour la classification profonde semi-supervisée, caractérisé par une complexité de modèle fortement réduite. Notre approche repose sur un hybridation où les pseudo-étiquettes sont générées en minimisant l’énergie de Laplace sur un graphe. Ces pseudo-étiquettes sont ensuite utilisées pour entraîner itérativement un noyau de réseau de neurones. Notre modèle surpasser les méthodes de pointe dans la classification profonde semi-supervisée sur plusieurs jeux de données standards. En outre, nous étudions théoriquement l’application des augmentations fortes aux réseaux de neurones et justifions l’utilisation d’une approche à multi-échantillonnage pour l’apprentissage semi-supervisé. À travers des expérimentations rigoureuses, nous démontrons qu’une approche d’augmentation à multi-échantillonnage améliore la généralisation et réduit la sensibilité du réseau aux augmentations.