Bei einer Verschiebung der Datenverteilung verwenden Sie Selbstlernverfahren

Wir zeigen, dass selbstlernende Techniken wie Entropie-Minimierung und Pseudo-Labeling einfach und effektiv sind, um die Leistung eines bereitgestellten Computer-Vision-Modells unter systematischen Domänenverschiebungen zu verbessern. Wir führen eine umfassende Reihe großer Skalen-Experimente durch und zeigen konsistente Verbesserungen unabhängig von der Modellarchitektur, der Vortrainingsmethode oder der Art der Verteilungsverschiebung. Gleichzeitig ist das Selbstlernen in der Praxis einfach anwendbar, da es kein Wissen oder Zugriff auf die ursprünglichen Trainingsdaten oder -schemata erfordert, robust gegenüber Hyperparameter-Wahlen ist, einfach zu implementieren ist und lediglich wenige Anpassungsepoche benötigt. Dies macht selbstlernende Techniken äußerst attraktiv für jeden Praktiker, der maschinelles Lernen in der realen Welt einsetzt. Wir präsentieren state-of-the-art-Anpassungsergebnisse auf CIFAR10-C (8,5 % Fehler), ImageNet-C (22,0 % mCE), ImageNet-R (17,4 % Fehler) und ImageNet-A (14,8 % Fehler), untersuchen theoretisch die Dynamik selbstüberwachter Anpassungsverfahren und stellen ein neues Klassifikationsdatensatz (ImageNet-D) vor, der selbst bei Anpassung herausfordernd bleibt.