HyperAIHyperAI
vor 17 Tagen

Laplacian-regularisierter Few-Shot-Learning

{Imtiaz Masud Ziko; Jose Dolz; Eric Granger; Ismail Ben Ayed}
Laplacian-regularisierter Few-Shot-Learning
Abstract

Wir schlagen eine transduktive, Laplace-reguläre Inferenz für Few-Shot-Aufgaben vor. Gegeben eine beliebige von den Basis-Klassen gelernte Merkmalsdarstellung minimieren wir eine quadratische binäre Zuordnungs-Funktion, die zwei Terme enthält: (1) einen einstelligen Term, der die Zuordnung von Query-Proben zu den nächsten Klassen-Prototypen vornimmt, und (2) einen paarweisen Laplace-Term, der nahe beieinander liegende Query-Proben zur konsistenten Label-Zuweisung ermutigt. Unsere transduktive Inferenz retrainiert das Basis-Modell nicht und kann als ein Graph-Clustering der Query-Menge unter Berücksichtigung von Supervisionsbeschränkungen durch die Support-Menge verstanden werden. Wir leiten einen recheneffizienten Schranken-Optimierer einer Relaxierung unserer Funktion ab, der unabhängige (parallele) Aktualisierungen für jede Query-Probe berechnet und gleichzeitig Konvergenz garantiert. Nach einer einfachen Cross-Entropy-Training auf den Basis-Klassen und ohne komplizierte Meta-Lernstrategien führen wir umfassende Experimente an fünf Few-Shot-Lern-Benchmarks durch. Unser Ansatz, LaplacianShot, übertrifft konsistent state-of-the-art-Methoden bei signifikanten Abständen über verschiedene Modelle, Einstellungen und Datensätze hinweg. Darüber hinaus ist unsere transduktive Inferenz äußerst schnell, wobei die Berechnungszeiten nahe an denen der induktiven Inferenz liegen, und kann somit auch für großskalige Few-Shot-Aufgaben eingesetzt werden.