HyperAIHyperAI
vor 17 Tagen

Lernen des Ausbalancierens von Spezifität und Invarianz für In- und Out-of-Domain-Verallgemeinerung

Prithvijit Chattopadhyay, Yogesh Balaji, Judy Hoffman
Lernen des Ausbalancierens von Spezifität und Invarianz für In- und Out-of-Domain-Verallgemeinerung
Abstract

Wir stellen Domain-spezifische Masken für Generalisierung vor, ein Modell zur Verbesserung sowohl der In-Domain- als auch der Out-of-Domain-Generalisierung. Bei der Domänen-Generalisierung geht es darum, aus einer Menge von Quelldomänen zu lernen, um ein einziges Modell zu erzeugen, das sich bestmöglich auf eine nicht gesehene Ziel-Domäne generalisieren lässt. Viele herkömmliche Ansätze konzentrieren sich daher darauf, Darstellungen zu lernen, die über alle Quelldomänen hinweg bestehen bleiben, unter der Annahme, dass diese domänenunabhängigen Darstellungen gut generalisieren werden. In der Praxis enthalten jedoch einzelne Domänen oft charakteristische Merkmale, die einzigartig sind und, wenn sie gezielt genutzt werden, die Erkennungsleistung innerhalb der jeweiligen Domäne erheblich verbessern können. Um ein Modell zu entwickeln, das sowohl für bekannte als auch für unbekannte Domänen optimal generalisiert, schlagen wir vor, domänen-spezifische Masken zu lernen. Diese Masken sollen ein Gleichgewicht zwischen domäneninvarianten und domänen-spezifischen Merkmalen erlernen, wodurch ein Modell entsteht, das sowohl von der prädiktiven Kraft spezialisierter Merkmale profitiert als auch die universelle Anwendbarkeit domäneninvarianter Merkmale bewahrt. Wir zeigen eine konkurrenzfähige Leistung gegenüber naiven Baselines und state-of-the-art-Methoden sowohl auf dem PACS- als auch auf dem DomainNet-Datensatz.

Lernen des Ausbalancierens von Spezifität und Invarianz für In- und Out-of-Domain-Verallgemeinerung | Neueste Forschungsarbeiten | HyperAI