Domänenverallgemeinerung mit adversarieller Merkmalslernung

In diesem Artikel behandeln wir das Problem der Domänenverallgemeinerung: Wie kann eine verallgemeinerte Merkmalsdarstellung für eine „unbeobachtete“ Ziel-Domäne erlernt werden, indem man die Vorteile mehrerer beobachteter Quell-Domänen nutzt? Wir präsentieren einen neuartigen Ansatz basierend auf adversarialen Autoencodern, um eine verallgemeinerte latente Merkmalsdarstellung über verschiedene Domänen hinweg für die Domänenverallgemeinerung zu lernen. Konkret erweitern wir adversiale Autoencoder, indem wir die Maximum Mean Discrepancy (MMD)-Maßnahme einführen, um die Verteilungen zwischen verschiedenen Domänen auszurichten, und die ausgerichtete Verteilung mittels adversialer Merkmalslernverfahren einer beliebigen Prior-Verteilung anpassen. Auf diese Weise soll die erlernte Merkmalsdarstellung aufgrund der MMD-Regularisierung universell für die beobachteten Quell-Domänen sein und aufgrund der Einführung der Prior-Verteilung gut auf die Ziel-Domäne generalisieren. Wir schlagen einen Algorithmus vor, um die verschiedenen Komponenten unseres Ansatzes gemeinsam zu trainieren. Umfangreiche Experimente auf verschiedenen Vision-Aufgaben zeigen, dass unser vorgeschlagener Ansatz im Vergleich zu aktuellen State-of-the-Art-Methoden der Domänenverallgemeinerung bessere verallgemeinerte Merkmale für die unbekannte Ziel-Domäne erlernen kann.