Zur einheitlichen und effektiven Domänenverallgemeinerung

Wir stellen $\textbf{UniDG}$, einen neuartigen und $\textbf{Uni}$fizierten Rahmen für $\textbf{D}$omain $\textbf{G}$eneralization vor, der die Generalisierungsfähigkeit von Grundmodellen außerhalb der Trainingsverteilung signifikant verbessern kann, unabhängig von deren Architektur. Der zentrale Ansatz von UniDG besteht darin, Modelle während der Inferenzphase zu feinabstimmen, wodurch die Kosten für iterative Trainingsprozesse reduziert werden. Konkret ermutigen wir die Modelle, die Verteilung der Testdaten im unsupervisierten Modus zu lernen, und führen eine Strafkomponente bezüglich der Aktualisierungsstufe der Modellparameter ein. Dieser Strafterm kann das Problem des katastrophalen Vergessens effektiv mindern, da wir die Erhaltung des wertvollen Wissens im ursprünglichen Modell maximieren möchten. Empirisch zeigt UniDG auf DomainBed eine durchschnittliche Genauigkeitssteigerung von +5,4 % über 12 visuelle Backbone-Modelle hinweg, darunter CNN-, MLP- und Transformer-basierte Architekturen mit einer Parameteranzahl von 1,89 Mio. bis 303 Mio. Diese Ergebnisse belegen die Überlegenheit und Vielseitigkeit von UniDG. Der Quellcode ist öffentlich unter https://github.com/invictus717/UniDG verfügbar.