HyperAIHyperAI
vor 8 Tagen

Entropie-Minimierung im Vergleich zu Diversitäts-Maximierung für die Domänenanpassung

Xiaofu Wu, Suofei hang, Quan Zhou, Zhen Yang, Chunming Zhao, Longin Jan Latecki
Entropie-Minimierung im Vergleich zu Diversitäts-Maximierung für die Domänenanpassung
Abstract

Die Minimierung der Entropie wird weithin in der unüberwachten Domänenanpassung (UDA) eingesetzt. Allerdings zeigen bestehende Arbeiten, dass die alleinige Anwendung der Entropieminimierung zu degenerierten, triviale Lösungen führen kann. In diesem Artikel schlagen wir vor, solche trivialen Lösungen durch die zusätzliche Einführung der Diversitätsmaximierung zu vermeiden. Um das möglicherweise kleinste Zielrisiko bei UDA zu erreichen, zeigen wir, dass die Diversitätsmaximierung sorgfältig mit der Entropieminimierung abgewogen werden muss, wobei dieser Abwägungsgrad durch den Einsatz von tiefen eingebetteten Validierungen auf unsupervisierte Weise fein reguliert werden kann. Der vorgeschlagene Ansatz der minimalen-Entropie-Diversitätsmaximierung (MEDM) kann direkt mittels stochastischem Gradientenabstieg implementiert werden, ohne adversariales Lernen zu benötigen. Empirische Ergebnisse belegen, dass MEDM die derzeit besten Methoden auf vier gängigen Domänenanpassungs-Datensätzen übertrifft.

Entropie-Minimierung im Vergleich zu Diversitäts-Maximierung für die Domänenanpassung | Neueste Forschungsarbeiten | HyperAI