PSSCL: Ein progressiver Ansatz zur Stichprobenauswahl mit kontrastiver Verlustfunktion für fehlerhafte Labels
Große Bild-Datensätze enthalten häufig unvermeidbare Rauschlabels, was zu Überanpassung bei tiefen neuronalen Netzen und einer Leistungsabnahme führt. Die meisten bestehenden Ansätze zum Lernen mit Rauschlabels operieren als einstufige Frameworks, bei denen die Aufteilung der Trainingsdaten und das halbüberwachte Lernen (SSL) eng miteinander verflochten sind und gemeinsam optimiert werden. Daher wird ihre Effektivität erheblich von der Genauigkeit der getrennten sauberen Datensätze, vorhergehenden Kenntnissen über das Rauschen sowie der Robustheit des SSL abhängig. In diesem Artikel präsentieren wir einen fortschreitenden Ansatz zur Stichprobenauswahl mit kontrastiver Verlustfunktion für Rauschlabels, namens PSSCL. Dieses Framework arbeitet in zwei Stufen und nutzt robuste sowie kontrastive Verlustfunktionen, um die Robustheit des Modells zu erhöhen. In Stufe I wird mittels einer langfristigen Vertrauensdetektionsstrategie ein kleiner sauberer Datensatz identifiziert, während Stufe II darauf abzielt, die Leistung durch Erweiterung dieses sauberen Datensatzes zu verbessern. PSSCL zeigt gegenüber aktuellen state-of-the-art-Methoden signifikante Leistungssteigerungen auf verschiedenen Benchmarks. Der Quellcode ist unter https://github.com/LanXiaoPang613/PSSCL verfügbar.