Nichtüberwachte Domänenanpassung mittels merkmalsausgerichteter maximaler Klassifikatordiskrepanz
Die Methode des maximalen Klassifikatorunterschieds hat in den letzten Jahren erheblichen Erfolg bei der Lösung von Aufgaben der unsupervisierten Domänenanpassung für Bildklassifikation erzielt. Ihr grundlegendes Architekturkonzept besteht aus einem Merkmalsgenerator und zwei Klassifikatoren, die darauf abzielen, den Klassifikatorunterschied zu maximieren, während gleichzeitig der Generatorunterschied der Ziel-Domänen-Proben minimiert wird. Diese Methode verbessert die Leistung bestehender adversarialer Trainingsansätze, indem sie aufgabenbezogene Klassifikatoren einsetzt, die die Ambiguität bei der Klassifikation von Ziel-Domänen-Proben nahe den Klassenrändern beseitigen. In diesem Artikel stellen wir eine modifizierte Netzwerkarchitektur sowie zwei Trainingsziele vor, um die Leistung der Methode des maximalen Klassifikatorunterschieds weiter zu steigern. Das erste Trainingsziel minimiert den Unterschied auf Merkmalsebene und zwingt den Generator, domäneninvariante Merkmale zu erzeugen. Dieses Trainingsziel ist besonders vorteilhaft, wenn sich die Verteilungen der Quell- und Ziel-Domänen stark unterscheiden. Das zweite Trainingsziel, das auf Mini-Batch-Ebene wirkt, strebt eine gleichmäßige Verteilung der Vorhersagen für Ziel-Klassen an, indem es die Entropie des Erwartungswerts der Ziel-Klassen-Vorhersagen maximiert. Durch umfangreiche empirische Evaluationen zeigen wir, dass die vorgeschlagene Architektur und die Trainingsziele die Leistung des ursprünglichen Algorithmus signifikant verbessern. Darüber hinaus übertrifft diese Methode in den meisten Aufgaben der unsupervisierten Domänenanpassung auch die derzeitigen State-of-the-Art-Techniken.