HyperAIHyperAI
vor 17 Tagen

Feinabstufende Klassifikation mit verrauschten Beschriftungen

Qi Wei, Lei Feng, Haoliang Sun, Ren Wang, Chenhui Guo, Yilong Yin
Feinabstufende Klassifikation mit verrauschten Beschriftungen
Abstract

Das Lernen mit fehlerhaften Etiketten (LNL) zielt darauf ab, die Generalisierungsfähigkeit eines Modells bei einer durch Etikettenfehler verfälschten Trainingsmenge sicherzustellen. In dieser Arbeit untersuchen wir eine bisher wenig beachtete Szenario des LNL auf feinkörnigen Datensätzen (LNL-FG), das aufgrund der erheblichen interklassenbedingten Ambiguitäten zwischen feinkörnigen Klassen praktischer und herausfordernder ist, da diese zu einer höheren Anzahl an fehlerhaften Etiketten führen. Experimentell zeigen wir, dass bestehende Methoden, die für das allgemeine LNL gut funktionieren, bei LNL-FG keine zufriedenstellende Leistung erzielen, was den dringenden praktischen Bedarf nach effektiven Lösungen für LNL-FG aufzeigt. Um diesem Problem zu begegnen, schlagen wir einen neuen Ansatz namens stochastische, rauschtolerante überwachte kontrastive Lernmethode (SNSCL) vor, der durch die Förderung unterscheidbarer Repräsentationen der Auswirkungen von Etikettenrauschen begegnet. Konkret entwerfen wir eine rauschtolerante überwachte kontrastive Lernverlustfunktion, die eine gewichtsadaptive Mechanik zur Korrektur fehlerhafter Etiketten und eine selektive Aktualisierung der Momentum-Warteschlangen integriert. Durch diesen Mechanismus werden die negativen Effekte fehlerhafter Referenzbeispiele gemildert, und es wird verhindert, dass fehlerhafte Etiketten in die durch Momentum aktualisierte Warteschlange aufgenommen werden. Zusätzlich schlagen wir ein effizientes stochastisches Modul vor, das Feature-Embeddings aus einer generierten Verteilung samplingt, um manuell definierte Augmentierungsstrategien im kontrastiven Lernen zu vermeiden; dieses Modul kann zudem die Repräsentationsfähigkeit tiefer Modelle verbessern. SNSCL ist allgemein anwendbar und kompatibel mit etablierten robusten LNL-Strategien, um deren Leistung im Kontext von LNL-FG zu steigern. Umfangreiche Experimente belegen die Wirksamkeit von SNSCL.