HyperAIHyperAI
vor 17 Tagen

Zusammenpressen der Backbone-Feature-Verteilungen bis zum Maximum für effizientes Few-Shot-Lernen

Yuqing Hu, Vincent Gripon, Stéphane Pateux
Zusammenpressen der Backbone-Feature-Verteilungen bis zum Maximum für effizientes Few-Shot-Lernen
Abstract

Few-shot-Klassifikation ist aufgrund der Unsicherheit, die durch die Verwendung nur weniger gelabelter Beispiele entsteht, eine herausfordernde Aufgabe. In den letzten Jahren wurden zahlreiche Methoden vorgeschlagen, die alle das gemeinsame Ziel verfolgen, Wissen, das auf einer zuvor gelösten Aufgabe erworben wurde, zu transferieren – was häufig durch den Einsatz eines vortrainierten Merkmalsextrahierers erreicht wird. In Anlehnung an diesen Ansatz stellen wir in diesem Artikel eine neuartige transferbasierte Methode vor, die darauf abzielt, die Merkmalsvektoren so zu transformieren, dass sie einer gaußartigen Verteilung näher kommen, was zu einer verbesserten Genauigkeit führt. Im Fall des transduktiven Few-shot-Lernens, bei dem unlabeled Testbeispiele während des Trainings verfügbar sind, führen wir zudem einen auf der Optimal-Transport-Theorie basierenden Algorithmus ein, um die erzielte Leistung noch weiter zu steigern. Anhand standardisierter Bildverarbeitungsbenchmarks zeigen wir die Fähigkeit der vorgeschlagenen Methode, state-of-the-art Genauigkeiten für verschiedene Datensätze, Grundarchitekturen und Few-shot-Szenarien zu erreichen.