Classification Fine-Grainée avec des Étiquettes Bruyantes

L’apprentissage avec des étiquettes bruitées (LNL) vise à garantir la généralisation du modèle en présence d’un ensemble d’apprentissage contaminé par des erreurs d’étiquetage. Dans ce travail, nous étudions un scénario peu exploré du LNL sur des jeux de données à granularité fine (LNL-FG), qui est à la fois plus réaliste et plus exigeant, car les ambiguïtés inter-classes importantes au sein des classes à granularité fine entraînent une proportion plus élevée d’étiquettes bruitées. Nous montrons empiriquement que les méthodes existantes, efficaces dans le cadre du LNL classique, échouent à atteindre des performances satisfaisantes dans le cadre du LNL-FG, soulignant ainsi la nécessité pratique de solutions spécifiques à ce problème. À cette fin, nous proposons un cadre novateur appelé apprentissage contrastif supervisé tolérant au bruit stochastique (SNSCL), qui fait face au bruit d’étiquetage en favorisant des représentations bien distinctes. Plus précisément, nous concevons une fonction de perte d’apprentissage contrastif supervisé tolérant au bruit, intégrant un mécanisme sensible aux poids pour la correction des étiquettes bruitées et la mise à jour sélective des files de mémoire à momentum. Grâce à ce mécanisme, nous atténuons l’impact des exemples d’ancrage bruités et évitons d’introduire des étiquettes erronées dans la file de mémoire mise à jour par momentum. Par ailleurs, afin d’éviter les stratégies d’augmentation manuellement définies dans l’apprentissage contrastif, nous proposons un module stochastique efficace qui échantillonne des embeddings de caractéristiques à partir d’une distribution générée, améliorant ainsi la capacité de représentation des modèles profonds. Le cadre SNSCL est général et compatible avec les stratégies robustes actuelles du LNL, permettant d’améliorer leur performance dans le contexte du LNL-FG. Des expériences étendues démontrent l’efficacité de SNSCL.