HyperAIHyperAI

Command Palette

Search for a command to run...

Konfidenzregulierter Selbsttrainings

Yang Zou Zhiding Yu Xiaofeng Liu B.V.K. Vijaya Kumar Jinsong Wang

Zusammenfassung

Neuere Fortschritte im Bereich der Domänenanpassung zeigen, dass tiefes Selbsttraining eine leistungsfähige Methode für das unüberwachte Domänenadaptieren darstellt. Diese Methoden beinhalten oft einen iterativen Prozess, bei dem auf der Ziel-Domäne vorhergesagt wird und die sicheren Vorhersagen als Pseudo-Labels für das erneute Training verwendet werden. Allerdings können Pseudo-Labels rauschig sein, wodurch das Selbsttraining übermäßiges Vertrauen in falsche Klassen legen kann und zu abweichenden Lösungen mit verbreiteten Fehlern führt. Um dieses Problem anzugehen, schlagen wir ein Konfidenzregulierungs-Selbsttrainingsrahmenwerk (CRST) vor, das als reguliertes Selbsttraining formuliert ist. Unsere Methode behandelt Pseudo-Labels als kontinuierliche latente Variablen, die durch alternierende Optimierung gemeinsam optimiert werden. Wir schlagen zwei Arten von Konfidenzregulierung vor: Labelregulierung (LR) und Modellregulierung (MR). CRST-LR generiert weiche Pseudo-Labels, während CRST-MR die Glattheit der Netzwerkausgabe fördert. Ausführliche Experimente zur Bildklassifizierung und semantischen Segmentierung zeigen, dass CRSTs ihre nicht-regulierten Gegenstücke mit Stand der Technik übertreffen. Der Code und die Modelle dieser Arbeit sind unter https://github.com/yzou2/CRST verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp