Domänenverallgemeinerung durch Entropie-Regularisierung

Domain Generalization zielt darauf ab, aus mehreren Quelldomänen ein prädiktives Modell zu lernen, das auf unbekannten Zieldomänen generalisieren kann. Ein zentrales Problem im Bereich der Domain Generalization besteht darin, diskriminative, domäneninvariante Merkmale zu erlernen. Dazu führen einige Methoden durch adversarische Lernverfahren einen Domänen-Discriminator ein, um die Merkmalsverteilungen in mehreren Quelldomänen zu angleichen. Allerdings kann adversarische Trainierung lediglich garantieren, dass die gelernten Merkmale invariante marginale Verteilungen aufweisen; für die Vorhersage in neuen Domänen ist jedoch die Invarianz der bedingten Verteilungen von größerer Bedeutung. Um die bedingte Invarianz der gelernten Merkmale sicherzustellen, schlagen wir einen Entropie-Regularisierungs-Term vor, der die Abhängigkeit zwischen den gelernten Merkmalen und den Klassenlabels misst. In Kombination mit typischen auf die Aufgabe bezogenen Verlustfunktionen – beispielsweise der Kreuzentropie für Klassifikation – sowie dem adversarischen Verlust zur Domänenunterscheidung, garantiert unsere Gesamtzielsetzung die Lernung bedingungsunabhängiger Merkmale über alle Quelldomänen hinweg und ermöglicht somit die Entwicklung von Klassifikatoren mit verbesserter Generalisierungsfähigkeit.Wir belegen die Wirksamkeit unserer Methode durch Vergleiche mit aktuellen State-of-the-Art-Verfahren an simulierten und realen Datensätzen. Der Quellcode ist verfügbar unter: https://github.com/sshan-zhao/DGviaER.