HyperAIHyperAI
vor 2 Monaten

Globale und lokale Mischkonsistenz kumulatives Lernen für langschwänzige visuelle Erkennungen

Fei Du; Peng Yang; Qi Jia; Fengtao Nan; Xiaoting Chen; Yun Yang
Globale und lokale Mischkonsistenz kumulatives Lernen für langschwänzige visuelle Erkennungen
Abstract

In dieser Arbeit ist unser Ziel, ein einfaches Lernparadigma für die Erkennung von Long-Tail-Visuals zu entwickeln, das nicht nur die Robustheit des Merkmalsextraktors verbessert, sondern auch den Bias des Klassifizierers gegenüber Hauptklassen reduziert und gleichzeitig die erforderlichen Trainingsfähigkeiten und den Overhead minimiert. Wir schlagen eine effiziente einstufige Trainingsstrategie für die Erkennung von Long-Tail-Visuals vor, die als Global and Local Mixture Consistency cumulative learning (GLMC) bezeichnet wird. Unsere Kernideen sind zweigeteilt: (1) Ein global-lokaler Mischkonsistenzverlust verbessert die Robustheit des Merkmalsextraktors. Genauer gesagt erzeugen wir zwei augmentierte Batch-Daten durch globales MixUp und lokales CutMix aus denselben Batch-Daten und minimieren dann den Unterschied mit Hilfe der Kosinusähnlichkeit. (2) Ein kumulativer Head-Tail-Soft-Label-Umverteilungsverlust mildert das Problem des Biases gegenüber Hauptklassen. Wir verwenden empirische Klassenfrequenzen, um das gemischte Label der Haupt- und Schwanzklassen für langschwänzige Daten neu zu gewichten, und balancieren dann den konventionellen Verlust und den neu gewichteten Verlust mit einem durch Epoche angehäuften Koeffizienten. Unser Ansatz erreicht einen Stand der Technik korrespondierenden Genauigkeitsgrad auf den Datensätzen CIFAR10-LT, CIFAR100-LT und ImageNet-LT. Zusätzliche Experimente auf dem ausbalancierten ImageNet und CIFAR zeigen, dass GLMC die Generalisierungsfähigkeit der Backbones signifikant verbessern kann. Der Code ist öffentlich zugänglich unter https://github.com/ynu-yangpeng/GLMC.