MetaFun: Meta-Lernen mit iterativen funktionalen Aktualisierungen

Wir entwickeln einen funktionalen Encoder-Decoder-Ansatz für überwachtes Meta-Lernen, bei dem gelabelte Daten in eine unendlichdimensionale funktionale Darstellung kodiert werden, anstatt in eine endlichdimensionale. Zudem lernen wir anstelle der direkten Generierung der Darstellung eine neuronale Aktualisierungsregel, die einer funktionalen Gradientenabstiegs-Iteration ähnelt und die Darstellung iterativ verbessert. Die endgültige Darstellung dient dann dazu, den Decoder zu konditionieren, um Vorhersagen für ungelabelte Daten zu treffen. Unser Ansatz ist der erste, der den Erfolg von Encoder-Decoder-orientierten Meta-Lernmethoden wie bedingten neuronalen Prozessen auf großskaligen Few-Shot-Klassifikationsbenchmarks wie miniImageNet und tieredImageNet nachweist, wobei er eine state-of-the-art-Leistung erzielt.