Command Palette
Search for a command to run...
Lernen, zu diversifizieren, für die Generalisierung in einem einzelnen Domäne
Lernen, zu diversifizieren, für die Generalisierung in einem einzelnen Domäne
Zijian Wang Yadan Luo Ruihong Qiu Zi Huang Mahsa Baktashmotlagh
Zusammenfassung
Domain Generalization (DG) strebt danach, ein Modell, das auf mehreren Quelldomänen (d.h. Trainingsdomänen) trainiert wurde, auf eine verteilungsunterschiedliche Zieldomäne (d.h. Testdomäne) zu verallgemeinern. Im Gegensatz zur konventionellen DG, die strikt die Verfügbarkeit von mehreren Quelldomänen erfordert, betrachtet dieser Artikel ein realistischeres, jedoch anspruchsvolleres Szenario, nämlich Single Domain Generalization (Single-DG), bei dem nur eine einzige Quelldomäne für das Training zur Verfügung steht. In diesem Szenario kann die begrenzte Vielfalt die Verallgemeinerungsfähigkeit des Modells auf unbekannten Zieldomänen gefährden. Um dieses Problem anzugehen, schlagen wir ein Stilergänzungsmodul vor, um die Verallgemeinerungskraft des Modells durch die Synthese von Bildern aus vielfältigen Verteilungen zu erhöhen, die ergänzend zu den Quellbildern sind. Genauer gesagt verwenden wir eine handhabbare obere Schranke der gegenseitigen Information (Mutual Information, MI) zwischen den generierten und den Quellproben und führen eine zweistufige Optimierung iterativ durch: (1) indem wir die Approximation der oberen MI-Schranke für jedes Probenpaar minimieren, werden die generierten Bilder gezwungen, sich von den Quellproben abzuheben; (2) im Anschluss maximieren wir die MI zwischen Proben derselben semantischen Kategorie, was dem Netzwerk hilft, diskriminierende Merkmale aus vielfältig gestylten Bildern zu lernen. Ausführliche Experimente an drei Benchmark-Datensätzen zeigen die Überlegenheit unseres Ansatzes, der bis zu 25,14 % besser als der Stand der Technik in Single-DG-Methoden abschneidet.