HyperAIHyperAI
vor 9 Tagen

Langschwänzige Klassifikation mit allmählich ausgewogener Verlustfunktion und adaptiver Merkmalsgenerierung

Zihan Zhang, Xiang Xiang
Langschwänzige Klassifikation mit allmählich ausgewogener Verlustfunktion und adaptiver Merkmalsgenerierung
Abstract

Die Verteilung realer Daten ist grundsätzlich langschwänzig, was große Herausforderungen für tiefe Modelle darstellt. In dieser Arbeit stellen wir eine neue Methode vor, den Gradual Balanced Loss und Adaptive Feature Generator (GLAG), zur Linderung dieses Ungleichgewichts. GLAG lernt zunächst ein ausgewogenes und robusteres Merkmalsmodell mittels des Gradual Balanced Loss, fixiert dann das Merkmalsmodell und erweitert die unterrepräsentierten Tail-Klassen auf Merkmalslevel mithilfe von Wissen aus gut repräsentierten Head-Klassen. Die generierten Samples werden während der Trainingsphasen mit echten Trainingsdaten gemischt. Der Gradual Balanced Loss ist eine allgemeine Verlustfunktion, die mit verschiedenen entkoppelten Trainingsmethoden kombiniert werden kann, um die ursprüngliche Leistung zu verbessern. Auf langschwänzigen Datensätzen wie CIFAR100-LT, ImageNetLT und iNaturalist wurden state-of-the-art-Ergebnisse erzielt, was die Wirksamkeit von GLAG für die langschwänzige visuelle Erkennung belegt.

Langschwänzige Klassifikation mit allmählich ausgewogener Verlustfunktion und adaptiver Merkmalsgenerierung | Neueste Forschungsarbeiten | HyperAI