Batch Normalization Embeddings für tiefes Domain-Generalisierung

Domain Generalization zielt darauf ab, maschinelle Lernmodelle so zu trainieren, dass sie robust in unterschiedlichen und bisher unbekannten Domänen funktionieren. Mehrere neuere Methoden nutzen mehrere Datensätze, um Modelle zu trainieren, die domäneninvariante Merkmale extrahieren, mit dem Ziel, auf unbekannte Domänen generalisieren zu können. Im Gegensatz dazu trainieren wir zunächst explizit domänenabhängige Darstellungen, indem wir speziell angepasste Batch-Normalisierungsschichten verwenden, um unabhängige statistische Eigenschaften jeder Domäne zu sammeln. Anschließend schlagen wir vor, diese Statistiken zu nutzen, um Domänen in einen gemeinsamen latenten Raum abzubilden, in dem die Zugehörigkeit zu einer Domäne mittels einer Distanzfunktion gemessen werden kann. Im Testzeitpunkt projizieren wir Proben aus einer unbekannten Domäne in denselben Raum und schließen Eigenschaften ihrer Domäne als lineare Kombination der bekannten Domänen ab. Wir wenden dieselbe Abbildungsstrategie sowohl im Trainings- als auch im Testzeitpunkt an und lernen dabei sowohl eine latente Darstellung als auch ein leistungsstarkes, aber leichtgewichtiges Ensemblesystem. Wir zeigen eine signifikante Steigerung der Klassifizierungsgenauigkeit gegenüber aktuellen State-of-the-Art-Techniken auf etablierten Benchmark-Datenbanken für Domain Generalization: PACS, Office-31 und Office-Caltech.