HyperAIHyperAI
il y a 11 jours

EnAET : Cadre d'apprentissage auto-entraîné pour l'apprentissage semi-supervisé et supervisé basé sur des transformations ensemblistes

Xiao Wang, Daisuke Kihara, Jiebo Luo, Guo-Jun Qi
EnAET : Cadre d'apprentissage auto-entraîné pour l'apprentissage semi-supervisé et supervisé basé sur des transformations ensemblistes
Résumé

Les réseaux de neurones profonds ont été couramment appliqués à de nombreuses applications du monde réel. Toutefois, ces succès reposent fortement sur de grandes quantités de données étiquetées, dont l’acquisition est coûteuse. Récemment, de nombreuses méthodes d’apprentissage semi-supervisé ont été proposées et ont atteint des performances remarquables. Dans cette étude, nous proposons un nouveau cadre EnAET afin d’améliorer davantage les méthodes existantes d’apprentissage semi-supervisé grâce à des informations d’apprentissage auto-supervisé. À notre connaissance, toutes les méthodes actuelles d’apprentissage semi-supervisé améliorent les performances en s’appuyant sur les idées de cohérence et de confiance des prédictions. Nous sommes les premiers à explorer le rôle des représentations auto-supervisées dans l’apprentissage semi-supervisé, dans le cadre d’une famille riche de transformations. En conséquence, notre cadre peut intégrer les informations auto-supervisées comme un terme de régularisation afin d’améliorer de manière significative toutes les méthodes actuelles d’apprentissage semi-supervisé. Dans nos expériences, nous utilisons MixMatch, qui est actuellement la méthode de référence en apprentissage semi-supervisé, comme référence pour évaluer le cadre EnAET proposé. Sur différents jeux de données, nous employons les mêmes hyperparamètres, ce qui améliore considérablement la capacité de généralisation du cadre EnAET. Les résultats expérimentaux sur divers jeux de données montrent que le cadre EnAET proposé améliore de manière significative les performances des algorithmes semi-supervisés actuels. De plus, ce cadre peut également améliorer de façon notable l’apprentissage supervisé, y compris dans des scénarios particulièrement difficiles, avec seulement 10 images par classe. Le code source et les enregistrements expérimentaux sont disponibles à l’adresse suivante : \url{https://github.com/maple-research-lab/EnAET}.