HyperAIHyperAI
vor 11 Tagen

EUDA: Eine effiziente unsupervised Domain Adaptation über selbstüberwachtes Vision Transformer

Ali Abedi, Q. M. Jonathan Wu, Ning Zhang, Farhad Pourpanah
EUDA: Eine effiziente unsupervised Domain Adaptation über selbstüberwachtes Vision Transformer
Abstract

Unsupervised Domain Adaptation (UDA) zielt darauf ab, das Problem des Domänenverschiebungsphänomens zu mindern, bei dem die Verteilung der Trainingsdaten (Quelldaten) von der der Testdaten (Zieldaten) abweicht. Zahlreiche Modelle wurden entwickelt, um dieses Problem anzugehen, und in jüngster Zeit haben Vision Transformers (ViTs) vielversprechende Ergebnisse erzielt. Allerdings beschränken die Komplexität und die große Anzahl an trainierbaren Parametern von ViTs ihre Anwendung in praktischen Szenarien. Dies unterstreicht die Notwendigkeit eines effizienten Modells, das nicht nur die Anzahl der trainierbaren Parameter reduziert, sondern auch eine anpassbare Komplexität aufgrund spezifischer Anforderungen ermöglicht, ohne die Leistungsfähigkeit zu beeinträchtigen. Um dies zu erreichen, führen wir in diesem Artikel einen effizienten Rahmen für Unsupervised Domain Adaptation (EUDA) ein. EUDA verwendet DINOv2, einen selbstüberwachten Vision Transformer, als Merkmalsextraktor, gefolgt von einem vereinfachten Bottleneck aus vollständig verbundenen Schichten zur Feinabstimmung der Merkmale für eine verbesserte Domänenanpassung. Zudem setzt EUDA die synergistische Domänenanpassungsverlustfunktion (SDAL) ein, die die Kreuzentropie-(CE-) und die Maximum-Mean-Discrepancy-(MMD-)Verluste integriert, um die Anpassung zu balancieren, indem sie sowohl die Klassifikationsfehler in der Quelldomäne minimiert als auch die Verteilungen zwischen Quell- und Ziel-Domäne anpasst. Die experimentellen Ergebnisse zeigen die Wirksamkeit von EUDA, bei vergleichbarer Leistung mit anderen state-of-the-art-Methoden in der Domänenanpassung signifikant weniger trainierbare Parameter zu verwenden – zwischen 42 % und 99,7 % weniger. Dies demonstriert die Fähigkeit, das Modell in ressourcenbeschränkten Umgebungen zu trainieren. Der Quellcode des Modells ist verfügbar unter: https://github.com/A-Abedi/EUDA.

EUDA: Eine effiziente unsupervised Domain Adaptation über selbstüberwachtes Vision Transformer | Neueste Forschungsarbeiten | HyperAI