HyperAIHyperAI

Command Palette

Search for a command to run...

Verteilungsmatching für das mehrfache Lernen von Klassifizierungsaufgaben: Eine umfangreiche Studie zu Gesichtern und darüber hinaus

Dimitrios Kollias Viktoria Sharmanska Stefanos Zafeiriou

Zusammenfassung

Multi-Task Learning (MTL) ist ein Rahmenwerk, bei dem mehrere verwandte Aufgaben gemeinsam gelernt werden und von einem geteilten Repräsentationsraum oder Parameterübertragung profitieren. Um ausreichende Lernunterstützung zu gewährleisten, verwenden moderne MTL-Methoden annotierte Daten mit vollständigem oder ausreichend großem Überlapp zwischen den Aufgaben, d.h., jede Eingabe wird für alle oder die meisten Aufgaben annotiert. Allerdings ist das Sammeln solcher Annotationen in vielen praktischen Anwendungen oft nicht möglich und kann nicht von Datensätzen profitieren, die für einzelne Aufgaben verfügbar sind. In dieser Arbeit fordern wir diese Vorgehensweise heraus und zeigen, dass MTL auch bei Klassifizierungsaufgaben erfolgreich sein kann, die nur wenig oder keinen Überlapp in den Annotationen haben, oder wenn es große Unterschiede in der Menge der pro Aufgabe verfügbaren etikettierten Daten gibt. Wir untersuchen die Aufgabenverwandtschaft für Co-Annotation und Co-Training und schlagen einen neuen Ansatz vor, bei dem Wissensaustausch zwischen den Aufgaben durch Verteilungsmatching ermöglicht wird. Um die allgemeine Anwendbarkeit unserer Methode zu demonstrieren, führten wir verschiedene Fallstudien in den Bereichen affektives Computing, Gesichtserkennung, Artenerkennung und Klassifikation von Einkaufsartikeln mit neun Datensätzen durch. Unsere umfangreiche Studie zu affektiven Aufgaben für die Erkennung grundlegender Ausdrücke und die Detektion von Gesichtsaktionseinheiten zeigt, dass unser Ansatz netzwerkagnostisch ist und im Vergleich zum Stand der Technik in beiden Aufgaben und über alle untersuchten Datenbanken hinweg erhebliche Leistungsverbesserungen bringt. In allen Fallstudien zeigen wir, dass Co-Training durch Aufgabenverwandtschaft vorteilhaft ist und negative Transferphänomene (die auftreten, wenn die Leistung des MT-Modells schlechter als die mindestens eines Einzelaufgabemodells ist) verhindert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Verteilungsmatching für das mehrfache Lernen von Klassifizierungsaufgaben: Eine umfangreiche Studie zu Gesichtern und darüber hinaus | Paper | HyperAI