HyperAIHyperAI
vor 2 Monaten

Few-Shot Learning durch Einbettungsanpassung mit Mengenfunktionen

Han-Jia Ye; Hexiang Hu; De-Chuan Zhan; Fei Sha
Few-Shot Learning durch Einbettungsanpassung mit Mengenfunktionen
Abstract

Das Lernen mit begrenzten Daten stellt eine wesentliche Herausforderung für die visuelle Erkennung dar. Viele Few-Shot-Lernmethoden begegnen dieser Herausforderung, indem sie eine Instanz-Einbettungsfunktion von gesehenen Klassen lernen und diese Funktion auf Instanzen von ungesehenen Klassen mit begrenzten Etiketten anwenden. Dieser Stil des Transferlearnings ist aufgabenunabhängig: Die Einbettungsfunktion wird nicht optimal diskriminativ in Bezug auf die ungesehenen Klassen gelernt, wo das Unterscheiden zwischen ihnen zur Zielaufgabe führt. In diesem Artikel schlagen wir einen neuen Ansatz vor, um die Instanz-Einbettungen durch eine Mengen-zu-Mengen-Funktion (set-to-set function) für die Zielklassifikationsaufgabe anzupassen, wodurch ein aufgabenspezifische und diskriminative Einbettungen entstehen. Wir untersuchten empirisch verschiedene Instanzen solcher Mengen-zu-Mengen-Funktionen und stellten fest, dass der Transformer am effektivsten ist – da er natürlicherweise die Schlüsselfeatures unseres gewünschten Modells erfüllt. Wir bezeichnen dieses Modell als FEAT (Few-Shot Embedding Adaptation with Transformer) und validieren es sowohl an dem Standard-Few-Shot-Klassifikationsbenchmark als auch an vier erweiterten Few-Shot-Lernszenarien mit wesentlichen Anwendungsfällen, nämlich cross-domain, transduktiv, generalisiertes Few-Shot-Lernen und Low-Shot-Lernen. Es zeigte konsistente Verbesserungen gegenüber Basismodellen sowie früheren Methoden und etablierte neue Standarte der Technik (state-of-the-art) Ergebnisse bei zwei Benchmarks.