Lernen semantischer Repräsentationen für unsupervisierte Domänenanpassung

Es ist von entscheidender Bedeutung, das Wissen aus einem label-reichen Quellbereich auf einen unlabeled Zielbereich zu übertragen, da die manuelle Etikettierung kostspielig ist. Vorherige Methoden zur Domänenanpassung adressieren dieses Problem durch die Ausrichtung der globalen Verteilungsstatistiken zwischen Quell- und Zielbereich. Ein Nachteil dieser Ansätze besteht jedoch darin, dass sie die semantische Information in den einzelnen Proben vernachlässigen, beispielsweise könnten Merkmale von Rucksäcken im Zielbereich nahe an Merkmalen von Autos im Quellbereich abgebildet werden. In diesem Artikel stellen wir das Moving Semantic Transfer Network (MSTN) vor, das semantische Repräsentationen für unlabeled Zielproben durch die Ausrichtung von etikettierten Quellzentroiden und pseudolabelierten Zielzentroiden lernt. Merkmale derselben Klasse, jedoch aus unterschiedlichen Domänen, sollen dabei nahe beieinander abgebildet werden, was zu einer verbesserten Klassifiziergenauigkeit im Zielbereich führt. Die bewegte Durchschnittszentroidenausrichtung ist sorgfältig entworfen, um die unzureichende kategorische Information innerhalb jeder Mini-Batch zu kompensieren. Experimente bestätigen, dass unser Modell auf Standarddatensätzen Ergebnisse auf State-of-the-Art-Niveau erzielt.