HyperAIHyperAI
vor 2 Monaten

Verteilungsmatching für das mehrfache Lernen von Klassifizierungsaufgaben: Eine umfangreiche Studie zu Gesichtern und darüber hinaus

Kollias, Dimitrios ; Sharmanska, Viktoriia ; Zafeiriou, Stefanos
Verteilungsmatching für das mehrfache Lernen von Klassifizierungsaufgaben: Eine umfangreiche Studie zu Gesichtern und darüber hinaus
Abstract

Multi-Task Learning (MTL) ist ein Rahmenwerk, bei dem mehrere verwandte Aufgaben gemeinsam gelernt werden und von einem geteilten Repräsentationsraum oder Parameterübertragung profitieren. Um ausreichende Lernunterstützung zu gewährleisten, verwenden moderne MTL-Methoden annotierte Daten mit vollständigem oder ausreichend großem Überlapp zwischen den Aufgaben, d.h., jede Eingabe wird für alle oder die meisten Aufgaben annotiert. Allerdings ist das Sammeln solcher Annotationen in vielen praktischen Anwendungen oft nicht möglich und kann nicht von Datensätzen profitieren, die für einzelne Aufgaben verfügbar sind. In dieser Arbeit fordern wir diese Vorgehensweise heraus und zeigen, dass MTL auch bei Klassifizierungsaufgaben erfolgreich sein kann, die nur wenig oder keinen Überlapp in den Annotationen haben, oder wenn es große Unterschiede in der Menge der pro Aufgabe verfügbaren etikettierten Daten gibt. Wir untersuchen die Aufgabenverwandtschaft für Co-Annotation und Co-Training und schlagen einen neuen Ansatz vor, bei dem Wissensaustausch zwischen den Aufgaben durch Verteilungsmatching ermöglicht wird. Um die allgemeine Anwendbarkeit unserer Methode zu demonstrieren, führten wir verschiedene Fallstudien in den Bereichen affektives Computing, Gesichtserkennung, Artenerkennung und Klassifikation von Einkaufsartikeln mit neun Datensätzen durch. Unsere umfangreiche Studie zu affektiven Aufgaben für die Erkennung grundlegender Ausdrücke und die Detektion von Gesichtsaktionseinheiten zeigt, dass unser Ansatz netzwerkagnostisch ist und im Vergleich zum Stand der Technik in beiden Aufgaben und über alle untersuchten Datenbanken hinweg erhebliche Leistungsverbesserungen bringt. In allen Fallstudien zeigen wir, dass Co-Training durch Aufgabenverwandtschaft vorteilhaft ist und negative Transferphänomene (die auftreten, wenn die Leistung des MT-Modells schlechter als die mindestens eines Einzelaufgabemodells ist) verhindert.