HyperAIHyperAI
vor 17 Tagen

Dynamische Domänenverallgemeinerung

Zhishu Sun, Zhifeng Shen, Luojun Lin, Yuanlong Yu, Zhifeng Yang, Shicai Yang, Weijie Chen
Dynamische Domänenverallgemeinerung
Abstract

Domain Generalization (DG) ist ein grundlegendes, jedoch äußerst herausforderndes Forschungsthema im Bereich des maschinellen Lernens. Die derzeitigen Ansätze konzentrieren sich hauptsächlich darauf, domaininvariante Merkmale unter Verwendung begrenzter Quelldomänen in einem statischen Modell zu lernen. Leider fehlt es an einem trainingsfreien Mechanismus, um das Modell an agnostische Ziel-Domänen anzupassen. Um dieses Problem zu bewältigen, entwickeln wir eine neuartige DG-Variante namens Dynamic Domain Generalization (DDG), bei der das Modell lernt, die Netzwerkparameter dynamisch anzupassen, um Daten aus unterschiedlichen Domänen zu verarbeiten. Konkret nutzen wir einen Meta-Adjuster, um die Netzwerkparameter basierend auf dem statischen Modell an unterschiedliche Daten aus verschiedenen Domänen anzupassen. Auf diese Weise wird das statische Modell dahingehend optimiert, gemeinsame Domänenmerkmale zu lernen, während der Meta-Adjuster speziell darauf ausgelegt ist, domänenspezifische Merkmale zu erfassen. Um diesen Lernprozess zu ermöglichen, wird DomainMix eingesetzt, um während des Trainings des Meta-Adjusters Daten aus vielfältigen Domänen zu simulieren, damit dieser sich auf kommende agnostische Ziel-Domänen vorbereiten kann. Diese Lernmechanik zwingt das Modell, sich ohne zusätzliches Training auf verschiedene agnostische Ziel-Domänen zu generalisieren. Umfangreiche Experimente belegen die Wirksamkeit des vorgeschlagenen Ansatzes. Der Quellcode ist verfügbar unter: https://github.com/MetaVisionLab/DDG

Dynamische Domänenverallgemeinerung | Neueste Forschungsarbeiten | HyperAI