HyperAIHyperAI
vor 8 Tagen

Difficulty-Net: Lernen der Schwierigkeitsvorhersage für long-tailed Erkennung

Saptarshi Sinha, Hiroki Ohashi
Difficulty-Net: Lernen der Schwierigkeitsvorhersage für long-tailed Erkennung
Abstract

Langtailige Datensätze, bei denen die Kopf-Klassen deutlich mehr Trainingsbeispiele enthalten als die Schwanz-Klassen, führen dazu, dass Erkennungsmodelle gegenüber den Kopf-Klassen verzerrt werden. Gewichtete Verlustfunktionen sind eine der am häufigsten verwendeten Methoden zur Minderung dieses Problems. Eine neuere Studie hat vorgeschlagen, dass die Klassen-Schwierigkeit möglicherweise ein besserer Hinweis als die traditionell verwendete Klassen-Häufigkeit zur Bestimmung der Gewichtsverteilung ist. In der vorherigen Arbeit wurde eine heuristische Formulierung zur Quantifizierung der Schwierigkeit verwendet, doch wir stellen empirisch fest, dass die optimale Formulierung je nach Charakteristik der Datensätze variiert. Daher schlagen wir Difficulty-Net vor, ein Ansatz, der im Rahmen eines Meta-Lernens lernt, die Schwierigkeit von Klassen anhand der Leistung des Modells vorherzusagen. Um sicherzustellen, dass Difficulty-Net die Schwierigkeit einer Klasse im Kontext der anderen Klassen angemessen erfasst, führen wir zwei neue zentrale Konzepte ein: die relative Schwierigkeit und die Treiber-Verlustfunktion (driver loss). Erstere ermöglicht es Difficulty-Net, bei der Berechnung der Schwierigkeit anderer Klassen Rechnung zu tragen, während letztere unerlässlich ist, um das Lernen in eine sinnvolle Richtung zu leiten. Umfassende Experimente an etablierten langtailigen Datensätzen belegen die Wirksamkeit des vorgeschlagenen Ansatzes, der zudem auf mehreren langtailigen Datensätzen eine state-of-the-art-Leistung erzielt.

Difficulty-Net: Lernen der Schwierigkeitsvorhersage für long-tailed Erkennung | Neueste Forschungsarbeiten | HyperAI