Graduelle Erweiterung der Quell-Domäne für unsupervisierte Domänenanpassung

Unsupervised Domain Adaptation (UDA) versucht, den Bedarf an großen, gelabelten Datensätzen zu überwinden, indem Wissen von einem Quelldatensatz mit umfangreichen gelabelten Daten auf einen Ziel-Datensatz übertragen wird, der keine Labels enthält. Da im Zielbereich keine Labels vorhanden sind, kann eine frühe Diskrepanz zwischen den Domänen in spätere Trainingsphasen propagiert werden und zu einer akkumulierten Fehlerbildung führen. Um dieses Problem zu bewältigen, schlagen wir einen Algorithmus zur schrittweisen Erweiterung der Quelldomäne (Gradual Source Domain Expansion, GSDE) vor. GSDE trainiert die UDA-Aufgabe mehrmals von Grund auf neu, wobei jeweils die Netzwerkgewichte neu initialisiert werden, jedoch jeweils die Quelldaten mit Daten aus dem Zielbereich erweitert werden. Insbesondere werden die mit der höchsten Bewertung versehenen Ziel-Daten der vorherigen Trainingsrunde als Pseudosourcen-Beispiele mit ihren jeweiligen Pseudolabels verwendet. Mittels dieser Strategie wird das aus der vorherigen Trainingsrunde gewonnene Wissen direkt zu Beginn des neuen Trainingsprozesses eingeführt. Dadurch wird eine bessere Domänenanpassung erreicht, insbesondere in den frühen Trainingsphasen. In dieser Studie führen wir zunächst ein starkes Baseline-Netzwerk ein und wenden unsere GSDE-Strategie darauf an. Wir führen Experimente und Ablationsstudien an drei Benchmark-Datensätzen (Office-31, OfficeHome und DomainNet) durch und erreichen dabei eine bessere Leistung als bisherige State-of-the-Art-Methoden. Darüber hinaus zeigen wir, dass die vorgeschlagene GSDE-Strategie die Genauigkeit einer Vielzahl unterschiedlicher State-of-the-Art-UDA-Ansätze verbessern kann.