Zu einem kalibrierten Modell für die langschwänzige visuelle Erkennung aus prior Perspektive

Real-World-Daten leiden universell unter einem schwerwiegenden Problem der Klassenungleichgewichts und zeigen eine langschwänzige Verteilung, d.h., die meisten Klassen sind mit nur wenigen Instanzen verbunden. Naive Modelle, die auf solchen Datensätzen trainiert werden, neigen dazu, dominante Klassen zu bevorzugen, stoßen auf erhebliche Herausforderungen bei der Generalisierung und sind schlecht kalibriert. Wir schlagen zwei neue Methoden aus der Perspektive der Prior-Verteilung vor, um dieses Dilemma zu mildern. Erstens leiten wir eine ausgewogene Datenaugmentation namens Uniform Mixup (UniMix) ab, die die Mixup-Technik in langschwänzigen Szenarien fördert und fortgeschrittene Mischfaktoren sowie einen speziell angepassten Sampler nutzt, um die Minderheitsklassen zu unterstützen. Zweitens, inspiriert durch die Bayes-Theorie, identifizieren wir den Bayes-Verzerrungseffekt (Bayias), eine inhärente Verzerrung, die durch die Inkonstanz der Prior-Verteilung verursacht wird, und kompensieren diese durch eine Modifikation der standardmäßigen Kreuzentropieverlustfunktion. Wir zeigen weiterhin, dass beide vorgeschlagenen Methoden theoretisch und empirisch eine korrekte Kalibrierung der Klassifikation gewährleisten. Umfangreiche Experimente bestätigen, dass unsere Strategien zu einem besser kalibrierten Modell führen, und deren Kombination erreicht eine state-of-the-art-Leistung auf CIFAR-LT, ImageNet-LT und iNaturalist 2018.