HyperAIHyperAI

Command Palette

Search for a command to run...

Langschwänzige Klassifikation mit allmählich ausgewogener Verlustfunktion und adaptiver Merkmalsgenerierung

Zihan Zhang Xiang Xiang

Zusammenfassung

Die Verteilung realer Daten ist grundsätzlich langschwänzig, was große Herausforderungen für tiefe Modelle darstellt. In dieser Arbeit stellen wir eine neue Methode vor, den Gradual Balanced Loss und Adaptive Feature Generator (GLAG), zur Linderung dieses Ungleichgewichts. GLAG lernt zunächst ein ausgewogenes und robusteres Merkmalsmodell mittels des Gradual Balanced Loss, fixiert dann das Merkmalsmodell und erweitert die unterrepräsentierten Tail-Klassen auf Merkmalslevel mithilfe von Wissen aus gut repräsentierten Head-Klassen. Die generierten Samples werden während der Trainingsphasen mit echten Trainingsdaten gemischt. Der Gradual Balanced Loss ist eine allgemeine Verlustfunktion, die mit verschiedenen entkoppelten Trainingsmethoden kombiniert werden kann, um die ursprüngliche Leistung zu verbessern. Auf langschwänzigen Datensätzen wie CIFAR100-LT, ImageNetLT und iNaturalist wurden state-of-the-art-Ergebnisse erzielt, was die Wirksamkeit von GLAG für die langschwänzige visuelle Erkennung belegt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp