Apprendre à Apprendre à Partir de Données Étiquetées Bruyantes

Bien que les réseaux neuronaux profonds (DNNs) aient connu un succès notable dans les tâches de classification d'images, leurs performances au niveau humain dépendent de vastes ensembles de données d'entraînement dotés d'annotations manuelles de haute qualité, qui sont coûteuses et chronophages à recueillir. De nombreuses sources de données peu coûteuses existent sur le web, mais elles tendent à contenir des étiquettes inexactes. L'entraînement sur des ensembles de données avec des étiquettes bruyantes entraîne une dégradation des performances car les DNNs peuvent facilement surestimer le bruit des étiquettes. Pour surmonter ce problème, nous proposons un algorithme d'entraînement tolérant au bruit, où une mise à jour par apprentissage métadynamique est effectuée avant la mise à jour conventionnelle du gradient. La méthode d'apprentissage métadynamique proposée simule l'entraînement réel en générant des étiquettes bruyantes synthétiques et entraîne le modèle de telle manière que, après une mise à jour du gradient utilisant chaque ensemble d'étiquettes bruyantes synthétiques, le modèle ne surestime pas le bruit spécifique. Nous menons des expériences approfondies sur l'ensemble de données CIFAR-10 bruyant et l'ensemble de données Clothing1M. Les résultats montrent les performances avantageuses de la méthode proposée par rapport à plusieurs baselines de pointe.