HyperAIHyperAI
vor einem Monat

Sind Ankerpunkte wirklich unverzichtbar im Lernen mit Etikett-Rauschen?

Xiaobo Xia; Tongliang Liu; Nannan Wang; Bo Han; Chen Gong; Gang Niu; Masashi Sugiyama
Sind Ankerpunkte wirklich unverzichtbar im Lernen mit Etikett-Rauschen?
Abstract

Im Bereich des Lernens mit beschriftungsfehlerhaften Daten (\textit{label-noise learning}) spielt die \textit{Übergangsmatrix} (Noise Transition Matrix), die die Wahrscheinlichkeiten darstellt, mit denen saubere Beschriftungen in fehlerhafte Beschriftungen umgeschaltet werden, eine zentrale Rolle bei der Erstellung \textit{statistisch konsistenter Klassifizierer}. Bestehende Theorien haben gezeigt, dass die Übergangsmatrix durch das Ausnutzen von \textit{Ankerpunkten} (d.h., Datenpunkte, die fast sicher zu einer bestimmten Klasse gehören) gelernt werden kann. Allerdings wird die Übergangsmatrix bei Fehlen von Ankerpunkten schlecht gelernt, und diese aktuellen konsistenten Klassifizierer werden erheblich degenerieren. In dieser Arbeit schlagen wir ohne den Einsatz von Ankerpunkten eine \textit{Übergangsrevision}-Methode ($T$-Revision) vor, um Übergangsmatrizen effektiv zu lernen und so bessere Klassifizierer zu erzeugen. Speziell zur Lernung einer Übergangsmatrix initialisieren wir sie zunächst durch das Ausnutzen von Datenpunkten, die类似于锚点的数据点,具有较高的\textit{噪声类别后验概率} (noisy class posterior probabilities). Dann modifizieren wir die initialisierte Matrix durch Hinzufügen einer \textit{Schwellenvariable} (slack variable), welche zusammen mit dem Klassifizierer unter Verwendung fehlerhafter Daten gelernt und validiert werden kann. Empirische Ergebnisse auf Benchmark-Simulationsdaten und realweltlichen Datensätzen mit Beschriftungsfehlern zeigen, dass das vorgeschlagene Verfahren ohne den Einsatz exakter Ankerpunkte den aktuellen fortschrittlichsten Methoden des Lernens mit beschriftungsfehlerhaften Daten überlegen ist.请注意,我在这里直接翻译了“噪声类别后验概率”和“类似于锚点的数据点”,但这些术语在德语中可能没有完全对应的表达。为了确保信息的完整性,建议在首次出现时添加英文注释:Speziell zur Lernung einer Übergangsmatrix initialisieren wir sie zunächst durch das Ausnutzen von Datenpunkten, die ähnlich wie Ankerpunkte sind (similar to anchor points) und hohe \textit{Nachbesichtigungswahrscheinlichkeiten der fehlerhaften Klassen} (noisy class posterior probabilities) aufweisen. 这样可以确保读者理解这些特定术语的含义。