HyperAIHyperAI
vor 17 Tagen

Neuüberlegung der Mehrdomänen-Verallgemeinerung mit einem allgemeinen Lernziel

Zhaorui Tan, Xi Yang, Kaizhu Huang
Neuüberlegung der Mehrdomänen-Verallgemeinerung mit einem allgemeinen Lernziel
Abstract

Die Multi-Domain-Verallgemeinerung (mDG) zielt universell darauf ab, die Diskrepanz zwischen Trainings- und Testverteilungen zu minimieren, um die Abbildung von Randverteilungen auf Labelverteilungen zu verbessern. Allerdings fehlt der bestehenden mDG-Literatur ein allgemeiner Lernzielparadigma, und es werden oft Einschränkungen bezüglich statischer Zielrandverteilungen auferlegt. In diesem Artikel schlagen wir vor, eine $Y$-Abbildung zu nutzen, um diese Einschränkung zu lockern. Wir überdenken das Lernziel für mDG und entwickeln ein neues \textbf{allgemeines Lernziel}, das die meisten bestehenden Erkenntnisse in der mDG interpretieren und analysieren kann. Dieses allgemeine Ziel wird in zwei synergistische Ziele aufgeteilt: die Lernung domain-unabhängiger bedingter Merkmale sowie die Maximierung einer Posteriori-Verteilung. Zudem werden zwei effektive Regularisierungsterme untersucht, die a priori-Wissen einbeziehen und ungültige Kausalitäten unterdrücken, wodurch die Probleme, die durch die gelockerte Einschränkung entstehen, gemildert werden. Theoretisch leiten wir eine obere Schranke für die Domänenalignment von domain-unabhängigen bedingten Merkmalen her und zeigen, dass viele frühere mDG-Ansätze tatsächlich nur \textbf{einen Teil des Ziels optimieren}, was zu begrenzter Leistung führt. Daher reduzieren wir das allgemeine Lernziel auf vier praktikable Komponenten und stellen damit ein allgemeines, robustes und flexibles Verfahren zur Bewältigung komplexer Domänenverschiebungen bereit. Umfangreiche empirische Ergebnisse zeigen, dass das vorgeschlagene Ziel in Kombination mit der $Y$-Abbildung erheblich bessere mDG-Leistungen in verschiedenen Anwendungsaufgaben erzielt, darunter Regression, Segmentierung und Klassifikation.