Adversarielle Diskriminative Domänenanpassung

Feindliche Lernmethoden (adversarial learning methods) stellen einen vielversprechenden Ansatz zur Ausbildung robuster tiefer Netze dar und können komplexe Stichproben in verschiedenen Domänen erzeugen. Sie können zudem die Erkennung trotz des Vorliegens von Domänenverschiebungen oder Datensatzverzerrungen verbessern: In letzter Zeit wurden mehrere feindliche Ansätze zur unlösbaren Domänenanpassung (unsupervised domain adaptation) vorgestellt, die den Unterschied zwischen den Verteilungen der Trainings- und Testdomänen reduzieren und damit die Generalisierungsfähigkeit verbessern. Frühere generative Ansätze zeigten überzeugende Visualisierungen, waren aber für diskriminative Aufgaben nicht optimal und konnten sich auf kleinere Verschiebungen beschränken. Frühere diskriminative Ansätze konnten größere Domänenverschiebungen verarbeiten, legten jedoch gekoppelte Gewichte am Modell fest und nutzten keinen GAN-basierten Verlust.Wir skizzieren zunächst ein neuartiges allgemeines Framework für feindliche Anpassung, das jüngste Stand-der-Technik-Ansätze als Spezialfälle umfasst, und nutzen diese allgemeine Sichtweise, um die früheren Ansätze besser miteinander in Beziehung zu setzen. Wir schlagen eine bisher unerforschte Instanz unseres allgemeinen Frameworks vor, die diskriminatives Modellieren, getrennte Gewichteteilung (untied weight sharing) und einen GAN-Verlust kombiniert; wir nennen diesen Ansatz Feindliche Diskriminative Domänenanpassung (ADDA). Wir zeigen, dass ADDA effektiver ist und gleichzeitig erheblich einfacher als wettbewerbsfähige feindliche Methoden ist, und wir demonstrieren das Potenzial unseres Ansatzes durch die Übertreffen von Stand-der-Technik-Ergebnissen bei standardisierten cross-domänischen Ziffernklassifikationsaufgaben sowie einer neuen schwierigeren cross-modalen Objektklassifikationsaufgabe.