Reduzierung der Domänenlücke durch Reduzierung des Stilbias

Faltungsschichtneuronale Netze (CNNs) scheitern häufig daran, ihre Leistung bei neuen Testdomänen aufrechtzuerhalten, was als das Problem des Domänenwechsels bekannt ist. Neueste Studien deuten darauf hin, dass eine der Hauptursachen für dieses Problem die starke induktive Verzerrung (Bias) der CNNs gegenüber Bildstilen (d.h. Texturen) ist, die anfällig für Domänenänderungen sind, anstatt den Inhalten (d.h. Formen). Inspiriert durch diese Erkenntnisse schlagen wir vor, den intrinsischen Stilbias der CNNs zu reduzieren, um die Lücke zwischen den Domänen zu schließen. Unsere stilagnostischen Netze (Style-Agnostic Networks, SagNets) trennen Stilcodierungen von Klassifikationskategorien, um stilkonditionierte Vorhersagen zu vermeiden und sich stärker auf die Inhalte zu konzentrieren. Ausführliche Experimente zeigen, dass unsere Methode den Stilbias effektiv reduziert und das Modell unter Domänenwechsel robuster macht. Sie erzielt bemerkenswerte Leistungsverbesserungen in einer Vielzahl von cross-domänischen Aufgaben, einschließlich Domänenverallgemeinerung, unüberwachter Domänenanpassung und semi-überwachter Domänenanpassung auf mehreren Datensätzen.