Command Palette
Search for a command to run...
Merkmalsstylisierung und dominionsensible kontrastive Lernverfahren für Domänenverallgemeinerung
Merkmalsstylisierung und dominionsensible kontrastive Lernverfahren für Domänenverallgemeinerung
Seogkyu Jeon Kibeom Hong Pilhyeon Lee Jewook Lee Hyeran Byun
Zusammenfassung
Domain Generalization zielt darauf ab, die Robustheit des Modells gegenüber Domänenverschiebungen zu verbessern, ohne Zugriff auf die Ziel-Domäne zu haben. Da die verfügbaren Quell-Domänen für das Training begrenzt sind, konzentrieren sich jüngere Ansätze auf die Generierung von Proben neuer Domänen. Dennoch leiden diese Ansätze entweder unter Optimierungsproblemen bei der Synthese einer großen Anzahl von Domänen oder verursachen Verzerrungen der Klassen-Semantik. Um diese Herausforderungen zu bewältigen, schlagen wir einen neuartigen Framework für Domain Generalization vor, bei dem Merkmalsstatistiken genutzt werden, um ursprüngliche Merkmale in solche mit neuen Domänen-Eigenschaften zu stylisieren. Um die Klasseninformation während des Stylisierungsprozesses zu bewahren, zerlegen wir die Merkmale zunächst in hoch- und niederfrequente Komponenten. Anschließend stylisieren wir die niederfrequenten Komponenten mit neuen Domänen-Stilen, die aus manipulierten Statistiken abgeleitet wurden, während wir die Forminformationen in den hochfrequenten Komponenten unverändert lassen. Im letzten Schritt verschmelzen wir beide Komponenten erneut, um Merkmale neuer Domänen zu synthetisieren. Um die Robustheit gegenüber Domänen zu erhöhen, nutzen wir die stylisierten Merkmale, um die Konsistenz des Modells sowohl hinsichtlich der Merkmale als auch der Ausgaben zu gewährleisten. Die Merkmalskonsistenz erreichen wir durch eine neu vorgeschlagene domänenbewusste, überwachte kontrastive Verlustfunktion, die die Domäneninvarianz sicherstellt und gleichzeitig die Klassendifferenzierbarkeit erhöht. Experimentelle Ergebnisse belegen die Wirksamkeit des vorgeschlagenen Merkmals-Style-Verfahrens sowie der domänenbewussten kontrastiven Verlustfunktion. Quantitative Vergleiche bestätigen den Vorsprung unseres Ansatzes gegenüber bestehenden State-of-the-Art-Methoden auf zwei Benchmarks, PACS und Office-Home.