Lernen von Prototyp-Klassifizierern für die Long-Tailed-Erkennung

Das Problem der Long-Tailed Recognition (LTR) hat in den letzten Jahren aufgrund der grundlegenden Potenzgesetzesverteilung von Objekten in der realen Welt an Aufmerksamkeit gewonnen. Die meisten aktuellen Ansätze zur LTR nutzen Softmax-Klassifizierer, die jedoch einen systematischen Bias aufweisen, da sie die Norm des Klassifizierers mit der Menge an Trainingsdaten einer Klasse verknüpfen. In dieser Arbeit zeigen wir, dass das Lernen von Prototyp-Klassifizierern das problematische Verhalten der Softmax-Klassifizierung in LTR adressiert. Prototyp-Klassifizierer können bereits durch die Verwendung von Nearest-Class-Mean (NCM), einem Spezialfall, bei dem die Prototypen empirische Zentroide sind, vielversprechende Ergebnisse erzielen. Wir gehen einen Schritt weiter und schlagen vor, die Prototypen gemeinsam zu lernen, indem wir die Abstände zu den Prototypen im Repräsentationsraum als Logit-Werte für die Klassifikation verwenden. Zudem analysieren wir theoretisch die Eigenschaften von auf euklidischen Abständen basierenden Prototyp-Klassifizierern, die eine stabile, gradientenbasierte Optimierung ermöglichen und robust gegenüber Ausreißern sind. Um unabhängige Distanzskalen entlang jeder Kanalrichtung zu ermöglichen, erweitern wir die Prototyp-Klassifizierer durch das Lernen kanalabhängiger Temperaturparameter. Unsere Analyse zeigt, dass die durch Prototyp-Klassifizierer gelernten Prototypen besser getrennt sind als empirische Zentroide. Ergebnisse auf vier LTR-Benchmarks belegen, dass der Prototyp-Klassifizierer state-of-the-art Methoden übertrifft oder mit ihnen vergleichbar ist. Der Quellcode ist unter https://github.com/saurabhsharma1993/prototype-classifier-ltr verfügbar.