Construction d’un apprentissage semi-supervisé à une seule tentative (BOSS) atteignant les performances d’un apprentissage entièrement supervisé

Parvenir à des performances équivalentes à celles de l’apprentissage entièrement supervisé en utilisant des données non étiquetées et en étiquetant uniquement un échantillon par classe pourrait représenter un idéal pour les applications d’apprentissage profond. Pour la première fois, nous démontrons le potentiel de construire un apprentissage semi-supervisé à un seul exemple (BOSS, Building One-shot Semi-supervised learning) sur les jeux de données CIFAR-10 et SVHN, atteignant des précisions de test comparables à celles obtenues avec un apprentissage entièrement supervisé. Notre méthode combine le raffinement des prototypes de classes, l’équilibrage des classes et l’auto-entraînement. Un choix de prototypes de qualité est essentiel, et nous proposons une technique permettant d’obtenir des exemples emblématiques. En outre, nous montrons que les méthodes d’équilibrage des classes améliorent considérablement les résultats de précision dans l’apprentissage semi-supervisé, jusqu’à un niveau où l’auto-entraînement peut atteindre les performances de l’apprentissage entièrement supervisé. Des évaluations empiriques rigoureuses apportent des preuves que l’étiquetage de grands ensembles de données n’est pas nécessaire pour entraîner des réseaux neuronaux profonds. Nous avons rendu notre code disponible à l’adresse suivante : https://github.com/lnsmith54/BOSS, afin de faciliter la reproduction des résultats et d’assister les applications futures dans des contextes réels.