Klassenweiser Schwierigkeitsausgleichsverlust zur Lösung der Klassenungleichgewichtsproblematik

Klassenungleichgewicht stellt eine der zentralen Herausforderungen bei realen Datensätzen dar, bei denen einige Klassen (sogenannte Majority-Klassen) erheblich mehr Datensamples aufweisen als die übrigen Klassen (sogenannte Minority-Klassen). Die Schätzung tiefer neuronalen Netze mit solchen Datensätzen führt typischerweise zu einer Leistungsverzerrung zugunsten der Majority-Klassen. Die meisten vorherigen Ansätze versuchen, das Klassenungleichgewicht durch die Zuweisung höherer Gewichte an die Minority-Klassen auf verschiedene Weise zu lösen (z. B. Daten-Resampling, kostenempfindliches Lernen). Wir argumentieren jedoch, dass die Anzahl verfügbarer Trainingsdaten nicht immer ein zuverlässiger Indikator für die Gewichtungsstrategie ist, da einige Minority-Klassen selbst mit einer geringen Anzahl von Trainingsbeispielen bereits ausreichend repräsentiert sein können. Eine Überbewertung der Gewichte solcher Klassen kann zu einer Verschlechterung der Gesamtleistung des Modells führen. Wir behaupten, dass die „Schwierigkeit“ einer Klasse aus der Sicht des Modells wichtiger ist, um die Gewichtung zu bestimmen. In diesem Sinne schlagen wir eine neuartige Verlustfunktion vor, die als Class-wise Difficulty-Balanced Loss (CDB-Loss) bezeichnet wird und die Gewichte dynamisch an jedes Beispiel entsprechend der Schwierigkeit der zugehörigen Klasse verteilt. Dabei ändern sich die zugewiesenen Gewichte dynamisch, da sich die „Schwierigkeit“ für das Modell im Laufe des Lernprozesses verändern kann. Umfassende Experimente wurden sowohl auf Bild- (künstlich beeinflusst unbalanciertes MNIST, langgezogene CIFAR und ImageNet-LT) als auch auf Video-Datensätzen (EGTEA) durchgeführt. Die Ergebnisse zeigen, dass der CDB-Loss unabhängig von der Datentypen (Bild oder Video) konsistent die kürzlich vorgeschlagenen Verlustfunktionen auf unbalancierten Datensätzen übertrifft.