HyperAIHyperAI
vor 18 Tagen

Ensemble-Distillation über Domänen für Domänenverallgemeinerung

{Suha Kwak, Sungyeon Kim, kyungmoon lee}
Ensemble-Distillation über Domänen für Domänenverallgemeinerung
Abstract

Für die Domänenverallgemeinerung, die Aufgabe, ein Modell zu lernen, das auf bisher nicht gesehene Ziel-Domänen verallgemeinert, indem mehrere Quell-Domänen genutzt werden, richten viele Ansätze explizit die Verteilung der Domänen aus. Allerdings birgt die Optimierung der Domänenalignment ein Überanpassungsrisiko, da die Ziel-Domäne nicht verfügbar ist. Um dieses Problem anzugehen, schlägt dieser Artikel eine Methode zur Domänenverallgemeinerung durch Selbst-Distillation vor. Der vorgeschlagene Ansatz zielt darauf ab, ein modellrobust gegenüber Domänenverschiebungen zu trainieren, indem sinnvolle falsche Vorhersagen in mehreren Domänen zugelassen werden. Konkret passt unsere Methode das Ensemble der Vorhersageverteilungen von Daten mit derselben Klassenbezeichnung, aber unterschiedlichen Domänen, jeweils mit jeder einzelnen Vorhersageverteilung an. Außerdem stellen wir eine De-Stilisierungsmethode vor, die die Merkmalskarten von Bildern standardisiert, um konsistente Vorhersagen zu fördern. Bildklassifizierungsexperimente an zwei Benchmark-Datenbanken zeigten, dass die vorgeschlagene Methode die Leistung sowohl in Einzel-Quell- als auch in Mehr-Quell-Szenarien erheblich verbessert. Zudem zeigen wir, dass die Methode auch in Person-ReID-Experimenten effektiv funktioniert. In allen Experimenten verbessert unsere Methode die Leistung signifikant.

Ensemble-Distillation über Domänen für Domänenverallgemeinerung | Neueste Forschungsarbeiten | HyperAI