Command Palette
Search for a command to run...
Asymmetrischer Verlust für die Multi-Label-Klassifikation
Asymmetrischer Verlust für die Multi-Label-Klassifikation
Emanuel Ben-Baruch Tal Ridnik Nadav Zamir Asaf Noy Itamar Friedman Matan Protter Lihi Zelnik-Manor
Zusammenfassung
In einem typischen Mehrlabels-Setting enthält ein Bild im Durchschnitt nur wenige positive Labels, jedoch viele negative. Diese Ungleichgewichtigkeit zwischen positiven und negativen Beispielen dominiert den Optimierungsprozess und kann dazu führen, dass die Gradienten der positiven Labels während des Trainings unterbewertet werden, was wiederum zu einer schlechten Genauigkeit führt. In diesem Paper stellen wir eine neuartige asymmetrische Verlustfunktion („ASL“) vor, die positive und negative Beispiele unterschiedlich behandelt. Der Verlust ermöglicht eine dynamische Abschwächung und Hard-Thresholding leichter negativer Beispiele sowie die Ablehnung möglicherweise falsch gelabelter Instanzen. Wir zeigen, wie ASL die Wahrscheinlichkeiten verschiedener Beispiele ausbalanciert und wie dieser Ausgleich sich in verbesserten mAP-Werten niederschlägt. Mit ASL erreichen wir state-of-the-art Ergebnisse auf mehreren gängigen Mehrlabels-Datensätzen: MS-COCO, Pascal-VOC, NUS-WIDE und Open Images. Zudem demonstrieren wir die Anwendbarkeit von ASL auch für andere Aufgaben wie Einzelmehrfachklassifikation und Objekterkennung. ASL ist wirksam, einfach zu implementieren und erhöht weder die Trainingszeit noch die Komplexität.Implementierung verfügbar unter: https://github.com/Alibaba-MIIL/ASL.