Maximale Klassifikatordiskrepanz für unüberwachte Domänenanpassung

In dieser Arbeit stellen wir eine Methode für unüberwachtes Domänenadaptierung vor. Viele Methoden des adversariellen Lernens trainieren Netzwerke von Domänenklassifizierern, um die Merkmale als entweder Quelle oder Ziel zu unterscheiden, und ein Merkmalsgenerator-Netzwerk, um den Diskriminator nachzuahmen. Zwei Probleme bestehen bei diesen Methoden. Erstens versucht der Domänenklassifizierer nur, die Merkmale als Quelle oder Ziel zu unterscheiden und berücksichtigt somit nicht die taskspezifischen Entscheidungsgrenzen zwischen Klassen. Daher kann ein trainierter Generator unsichere Merkmale in der Nähe von Klassengrenzen erzeugen. Zweitens zielen diese Methoden darauf ab, die Merkmalsverteilungen zwischen verschiedenen Domänen vollständig anzupassen, was aufgrund der Eigenschaften jeder Domäne schwierig ist.Um diese Probleme zu lösen, führen wir einen neuen Ansatz ein, der versucht, die Verteilungen von Quelle und Ziel durch Nutzung der taskspezifischen Entscheidungsgrenzen auszugleichen. Wir schlagen vor, die Diskrepanz zwischen den Ausgaben zweier Klassifizierer zu maximieren, um Zieldatenpunkte zu erkennen, die weit entfernt sind vom Träger (support) der Quellendaten. Ein Merkmalsgenerator lernt dann, Zieldatenpunkte nahe am Träger zu generieren, um die Diskrepanz zu minimieren. Unsere Methode übertrifft andere Methoden auf mehreren Datensätzen für Bildklassifikation und semantische Segmentierung. Der Code ist unter \url{https://github.com/mil-tokyo/MCD_DA} verfügbar.