Das Lernen der Übertragung von Beispielen für partielle Domänenanpassung

Die Domänenanpassung ist entscheidend für das Lernen in neuen und unbekannten Umgebungen. Mit domänenadversarialem Training können tiefen Netze entkoppelte und übertragbare Merkmale lernen, die den Datensatzverschiebung zwischen Quell- und Zielbereichen effektiv verringern, um Wissensübertragung zu ermöglichen. Im Zeitalter des Big Data hat die leicht verfügbare Fülle von groß angelegten etikettierten Datensätzen ein breites Interesse an partieller Domänenanpassung (PDA) geweckt, bei der ein Klassifikator von einem etikettierten großen Bereich in einen unetikettierten kleinen Bereich übertragen wird. Sie erweitert die Standard-Domänenanpassung auf Szenarien, in denen die Zielbezeichnungen nur eine Teilmenge der Quellebezeichnungen sind. Unter der Voraussetzung, dass die Zielbezeichnungen unbekannt sind, besteht die zentrale Herausforderung der PDA darin, relevante Beispiele in den gemeinsamen Klassen zu übertragen, um eine positive Übertragung zu fördern, und irrelevante Beispiele in den spezifischen Klassen zu ignorieren, um eine negative Übertragung zu minimieren. In dieser Arbeit schlagen wir einen einheitlichen Ansatz zur PDA vor: Das Beispielübertragungsnetzwerk (Example Transfer Network – ETN), das gleichzeitig domäneninvariante Darstellungen zwischen Quell- und Zielbereichen lernt und ein fortschreitendes Gewichtungsverfahren anwendet, das die Übertragbarkeit von Quellenbeispielen quantifiziert und ihre Bedeutung für die Lernaufgabe im Zielbereich steuert. Eine gründliche Auswertung mehrerer Benchmark-Datensätze zeigt, dass unser Ansatz für partielle Domänenanpassungsaufgaben Stand der Technik ist.