HyperAIHyperAI

Command Palette

Search for a command to run...

Bei einer Verschiebung der Datenverteilung verwenden Sie Selbstlernverfahren

Evgenia Rusak Steffen Schneider George Pachitariu Luisa Eck Peter Gehler Oliver Bringmann Wieland Brendel Matthias Bethge

Zusammenfassung

Wir zeigen, dass selbstlernende Techniken wie Entropie-Minimierung und Pseudo-Labeling einfach und effektiv sind, um die Leistung eines bereitgestellten Computer-Vision-Modells unter systematischen Domänenverschiebungen zu verbessern. Wir führen eine umfassende Reihe großer Skalen-Experimente durch und zeigen konsistente Verbesserungen unabhängig von der Modellarchitektur, der Vortrainingsmethode oder der Art der Verteilungsverschiebung. Gleichzeitig ist das Selbstlernen in der Praxis einfach anwendbar, da es kein Wissen oder Zugriff auf die ursprünglichen Trainingsdaten oder -schemata erfordert, robust gegenüber Hyperparameter-Wahlen ist, einfach zu implementieren ist und lediglich wenige Anpassungsepoche benötigt. Dies macht selbstlernende Techniken äußerst attraktiv für jeden Praktiker, der maschinelles Lernen in der realen Welt einsetzt. Wir präsentieren state-of-the-art-Anpassungsergebnisse auf CIFAR10-C (8,5 % Fehler), ImageNet-C (22,0 % mCE), ImageNet-R (17,4 % Fehler) und ImageNet-A (14,8 % Fehler), untersuchen theoretisch die Dynamik selbstüberwachter Anpassungsverfahren und stellen ein neues Klassifikationsdatensatz (ImageNet-D) vor, der selbst bei Anpassung herausfordernd bleibt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp