Adversariale Dropout-Regularisierung

Wir präsentieren eine Methode zur Übertragung neuronaler Repräsentationen von labelreichen Quelldomänen auf ungelabelte Zieldomänen. Aktuelle adversarische Methoden, die für diese Aufgabe vorgeschlagen wurden, lernen, durch das Täuschen eines speziellen Domänenkritikers Netzwerks Merkmale über Domänen hinweg auszurichten. Ein Nachteil dieses Ansatzes besteht jedoch darin, dass der Kritiker die generierten Merkmale einfach als innerhalb der Domäne oder nicht klassifiziert, ohne die Grenzen zwischen den Klassen zu berücksichtigen. Dies kann zu der Erzeugung von unscharfen Merkmalen in der Nähe der Klassengrenzen führen und somit die Klassifikationsgenauigkeit im Ziel reduzieren. Wir schlagen einen neuen Ansatz vor, die adversarische Dropout-Regularisierung (ADR), um den Generator dazu anzuregen, diskriminativere Merkmale für die Zieldomäne zu erzeugen. Unser Kerngedanke besteht darin, den Kritiker durch einen zu ersetzen, der nicht-diskriminative Merkmale erkennt, indem er Dropout auf dem Klassifikator-Netzwerk anwendet. Der Generator lernt dann, diese Bereiche des Merkmalsraums zu vermeiden und dadurch bessere Merkmale zu erstellen. Wir wenden unseren ADR-Ansatz auf das Problem der unbeaufsichtigten Domänenanpassung für Bildklassifikations- und semantische Segmentierungsaufgaben an und zeigen signifikante Verbesserungen gegenüber dem aktuellen Stand der Technik. Darüber hinaus demonstrieren wir, dass unser Ansatz verwendet werden kann, um Generative Adversarial Networks (GAN) für das semi-beaufsichtigte Lernen zu trainieren.