Modellagnostisches Meta-Lernen zur schnellen Anpassung tiefer Netze

Wir schlagen einen Algorithmus für Meta-Lernen vor, der modellagnostisch ist, d.h., er ist mit jedem Modell kompatibel, das durch Gradientenabstieg trainiert wird, und auf eine Vielzahl verschiedener Lernprobleme anwendbar, einschließlich Klassifizierung, Regression und Reinforcement Learning. Das Ziel des Meta-Lernens besteht darin, ein Modell auf einer Vielzahl von Lernaufgaben zu trainieren, sodass es neue Lernaufgaben mit nur wenigen Trainingsbeispielen lösen kann. In unserem Ansatz werden die Parameter des Modells explizit so trainiert, dass wenige Gradientenschritte mit einer geringen Menge an Trainingsdaten aus einer neuen Aufgabe gute Generalisierungsleistung auf dieser Aufgabe erzielen. Im Grunde trainiert unsere Methode das Modell dazu, leicht feinjustiert zu werden. Wir zeigen, dass dieser Ansatz führende Leistungen auf zwei Benchmarks für Few-Shot-Bildklassifizierung erzielt, gute Ergebnisse bei Few-Shot-Regression liefert und die Feinjustierung für Policy-Gradient-Reinforcement-Learning mit neuronalen Netzwerk-Policys beschleunigt.