Ein genauerer Blick auf die Few-Shot-Klassifizierung

Die Few-Shot-Klassifikation strebt danach, einen Klassifikator zu trainieren, der während des Trainings mit begrenzten annotierten Beispielen unbekannte Klassen erkennen kann. Obwohl erhebliche Fortschritte gemacht wurden, erschweren die zunehmende Komplexität von Netzwerkdesigns, Meta-Lernalgorithmen und Unterschiede in den Implementierungsdetails eine faire Vergleichbarkeit. In dieser Arbeit präsentieren wir 1) eine konsistente vergleichende Analyse mehrerer repräsentativer Few-Shot-Klassifikationsalgorithmen, wobei die Ergebnisse zeigen, dass tiefere Backbones die Leistungsunterschiede zwischen den Methoden auf Datensätzen mit geringen Domänenunterschieden erheblich verringern, 2) eine modifizierte Baseline-Methode, die überraschenderweise wettbewerbsfähige Ergebnisse erzielt, wenn sie mit dem Stand der Technik sowohl auf den \miniI- als auch auf den CUB-Datensätzen verglichen wird, und 3) eine neue experimentelle Einstellung zur Bewertung der Querdomänen-Verallgemeinerungsfähigkeit von Few-Shot-Klassifikationsalgorithmen. Unsere Ergebnisse legen nahe, dass das Reduzieren der innerklassischen Variation ein wichtiger Faktor ist, wenn das Feature-Backbone flach ist, aber nicht so kritisch bei tieferen Backbones. In einer realistischen Querdomänen-Evaluierungseinstellung zeigen wir, dass eine Baseline-Methode mit einer standardmäßigen Feinabstimmungspraxis sich günstig gegenüber anderen state-of-the-art Few-Shot-Lernalgorithmen stellt.