HyperAIHyperAI
vor einem Monat

Konfidenzregulierter Selbsttrainings

Yang Zou; Zhiding Yu; Xiaofeng Liu; B. V. K. Vijaya Kumar; Jinsong Wang
Konfidenzregulierter Selbsttrainings
Abstract

Neuere Fortschritte im Bereich der Domänenanpassung zeigen, dass tiefes Selbsttraining eine leistungsfähige Methode für das unüberwachte Domänenadaptieren darstellt. Diese Methoden beinhalten oft einen iterativen Prozess, bei dem auf der Ziel-Domäne vorhergesagt wird und die sicheren Vorhersagen als Pseudo-Labels für das erneute Training verwendet werden. Allerdings können Pseudo-Labels rauschig sein, wodurch das Selbsttraining übermäßiges Vertrauen in falsche Klassen legen kann und zu abweichenden Lösungen mit verbreiteten Fehlern führt. Um dieses Problem anzugehen, schlagen wir ein Konfidenzregulierungs-Selbsttrainingsrahmenwerk (CRST) vor, das als reguliertes Selbsttraining formuliert ist. Unsere Methode behandelt Pseudo-Labels als kontinuierliche latente Variablen, die durch alternierende Optimierung gemeinsam optimiert werden. Wir schlagen zwei Arten von Konfidenzregulierung vor: Labelregulierung (LR) und Modellregulierung (MR). CRST-LR generiert weiche Pseudo-Labels, während CRST-MR die Glattheit der Netzwerkausgabe fördert. Ausführliche Experimente zur Bildklassifizierung und semantischen Segmentierung zeigen, dass CRSTs ihre nicht-regulierten Gegenstücke mit Stand der Technik übertreffen. Der Code und die Modelle dieser Arbeit sind unter https://github.com/yzou2/CRST verfügbar.

Konfidenzregulierter Selbsttrainings | Neueste Forschungsarbeiten | HyperAI