HyperAIHyperAI
vor 8 Tagen

MetaSAug: Meta-semantische Augmentierung für die Long-Tailed-Visual-Erkennung

Shuang Li, Kaixiong Gong, Chi Harold Liu, Yulin Wang, Feng Qiao, Xinjing Cheng
MetaSAug: Meta-semantische Augmentierung für die Long-Tailed-Visual-Erkennung
Abstract

In der Praxis weisen Trainingsdaten typischerweise eine langschwänzige Verteilung auf, bei der mehrere Hauptklassen signifikant mehr Beispiele enthalten als die verbleibenden Minderheitsklassen. Diese Ungleichverteilung beeinträchtigt die Leistung typischer überwachter Lernalgorithmen, die für ausgewogene Trainingsmengen entworfen wurden. In diesem Artikel behandeln wir dieses Problem, indem wir die Minderheitsklassen durch einen kürzlich vorgeschlagenen impliziten semantischen Datenaugmentierungsansatz (ISDA) ergänzen, der vielfältige augmentierte Beispiele erzeugt, indem tiefen Merkmale entlang zahlreicher semantisch sinnvoller Richtungen transformiert werden. Wichtig ist dabei, dass ISDA zur Bestimmung semantischer Richtungen die klassenbedingten Statistiken schätzt – was aufgrund der unzureichenden Trainingsdaten für Minderheitsklassen ineffektiv ist. Um dies zu lösen, schlagen wir einen neuen Ansatz vor, der mittels Meta-Lernen automatisch transformierte semantische Richtungen lernt. Konkret wird die Augmentierungsstrategie während des Trainings dynamisch optimiert, um den Verlust auf einer kleinen ausgewogenen Validierungsset zu minimieren, welches mittels eines Meta-Update-Schritts approximiert wird. Umfangreiche empirische Ergebnisse auf CIFAR-LT-10/100, ImageNet-LT sowie iNaturalist 2017/2018 bestätigen die Wirksamkeit unseres Verfahrens.

MetaSAug: Meta-semantische Augmentierung für die Long-Tailed-Visual-Erkennung | Neueste Forschungsarbeiten | HyperAI