HyperAIHyperAI
vor einem Monat

Größere Norm, besser übertragbar: Ein adaptiver Ansatz zur Merkmalsnormierung für unsupervisiertes Domänenadaptionsverfahren

Ruijia Xu; Guanbin Li; Jihan Yang; Liang Lin
Größere Norm, besser übertragbar: Ein adaptiver Ansatz zur Merkmalsnormierung für unsupervisiertes Domänenadaptionsverfahren
Abstract

Domänenanpassung ermöglicht es dem Lernmodell, sich sicher in neuen Umgebungen zu verallgemeinern, indem sie Domänenverschiebungen zwischen Verteilungen abmildert. Frühere Arbeiten konnten die zugrundeliegenden Ursachen, die zu einem drastischen Leistungsverfall des Modells in der Ziel-domäne führen, möglicherweise nicht effektiv aufdecken. In dieser Arbeit zeigen wir empirisch, dass das unstete Erkennungsverhalten in der Ziel-domäne hauptsächlich von viel kleineren Merkmalsnormen im Vergleich zur Quell-domäne herrührt. Dazu schlagen wir einen neuen, parameterfreien Ansatz zur anpassungsfähigen Merkmalsnorm (Adaptive Feature Norm) vor. Wir demonstrieren, dass die schrittweise Anpassung der Merkmalsnormen beider Domänen auf einen großen Wertebereich zu erheblichen Transfervorteilen führen kann und impliziert, dass die domänenspezifischen Merkmale mit größeren Normen besser übertragbar sind. Unsere Methode vereint erfolgreich die Berechnung sowohl der Standard- als auch der partiellen Domänenanpassung und bietet eine erhöhte Robustheit gegen das Problem negativer Transferleistung. Ohne zusätzliche Komplexität und nur durch wenige Zeilen Code hebt unsere Methode die Leistung in der Ziel-domäne erheblich und übertreffen den aktuellen Stand der Technik um einen großen Marginalwert (11,5 % auf Office-Home und 17,1 % auf VisDA2017). Wir hoffen, dass unser einfacher aber effektiver Ansatz Licht ins Dunkel zukünftiger Forschungen zum Transferlernen bringen wird. Der Code ist unter https://github.com/jihanyang/AFN verfügbar.

Größere Norm, besser übertragbar: Ein adaptiver Ansatz zur Merkmalsnormierung für unsupervisiertes Domänenadaptionsverfahren | Neueste Forschungsarbeiten | HyperAI