Apprentissage contrastif jumeau avec étiquettes bruitées

L’apprentissage à partir de données bruitées constitue une tâche difficile qui dégrade considérablement les performances du modèle. Dans cet article, nous proposons TCL, un nouveau modèle d’apprentissage contrastif jumelé, conçu pour apprendre des représentations robustes et gérer les étiquettes bruitées dans le cadre de la classification. Plus précisément, nous construisons un modèle de mélange de Gaussiennes (GMM) sur les représentations en injectant les prédictions du modèle supervisé dans le GMM, afin d’établir un lien entre les variables latentes sans étiquette du GMM et les annotations bruitées en étiquettes. Ensuite, TCL détecte les exemples aux étiquettes erronées comme des exemples hors distribution à l’aide d’un autre GMM à deux composantes, en tenant compte de la distribution des données. Nous proposons également une supervision croisée basée sur une perte de régularisation par entropie, qui permet d’extraire les véritables cibles à partir des prédictions du modèle afin de traiter les étiquettes bruitées. En conséquence, TCL parvient à apprendre des représentations discriminantes alignées avec les étiquettes estimées grâce à une combinaison d’apprentissage mixup et d’apprentissage contrastif. Des expérimentations étendues sur plusieurs benchmarks standards et jeux de données du monde réel démontrent la supériorité de TCL. En particulier, TCL obtient une amélioration de 7,5 % sur CIFAR-10 avec 90 % d’étiquettes bruitées — un scénario extrêmement bruyant. Le code source est disponible à l’adresse suivante : \url{https://github.com/Hzzone/TCL}.