HyperAIHyperAI
vor 8 Tagen

Verbesserung der Kalibrierung für langschwanzige Erkennung

Zhisheng Zhong, Jiequan Cui, Shu Liu, Jiaya Jia
Verbesserung der Kalibrierung für langschwanzige Erkennung
Abstract

Tiefere neuronale Netze können schlechte Leistungen erbringen, wenn die Trainingsdatensätze stark klassenungleichmäßig sind. Kürzlich wurden zweistufige Methoden vorgeschlagen, die die Darstellungslernphase und die Klassifikatorlernphase entkoppeln, um die Leistung zu verbessern. Dennoch bleibt das zentrale Problem der Fehlkalibrierung bestehen. Um diesem Problem entgegenzuwirken, entwickeln wir zwei neue Ansätze, um sowohl die Kalibrierung als auch die Gesamtleistung in solchen Szenarien zu verbessern. Ausgehend von der Beobachtung, dass die vorhergesagten Wahrscheinlichkeitsverteilungen der Klassen stark mit der Anzahl der Instanzen pro Klasse korrelieren, schlagen wir eine label-orientierte Glättung vor, um unterschiedliche Grade an Überzuversichtlichkeit bei verschiedenen Klassen zu behandeln und die Klassifikatorlernung zu verfeinern. Um den Datensatzbias zwischen den beiden Stufen zu reduzieren, der durch unterschiedliche Sampling-Strategien entsteht, führen wir im Entkopplungsrahmen eine verschobene Batch-Normalisierung ein. Unsere vorgeschlagenen Methoden erreichen neue Rekorde auf mehreren gängigen Benchmark-Datensätzen für langschwanzige Erkennungsaufgaben, darunter CIFAR-10-LT, CIFAR-100-LT, ImageNet-LT, Places-LT und iNaturalist 2018. Der Quellcode wird unter https://github.com/Jia-Research-Lab/MiSLAS verfügbar sein.

Verbesserung der Kalibrierung für langschwanzige Erkennung | Neueste Forschungsarbeiten | HyperAI