Command Palette
Search for a command to run...
Modellunabhängiges Meta-Lernen zur schnellen Anpassung tiefer Netze
Modellunabhängiges Meta-Lernen zur schnellen Anpassung tiefer Netze
Finn Chelsea Abbeel Pieter Levine Sergey
Zusammenfassung
Wir stellen einen Algorithmus für Meta-Lernen vor, der modellunabhängig ist, d. h., dass er mit beliebigen Modellen kompatibel ist, die mittels Gradientenabstieg trainiert wurden, und auf eine Vielzahl unterschiedlicher Lernaufgaben anwendbar ist, darunter Klassifikation, Regression und Verstärkungslernen. Ziel des Meta-Lernens ist es, ein Modell auf einer Vielzahl von Lernaufgaben zu trainieren, sodass es neue Lernaufgaben bereits mit nur wenigen Trainingsbeispielen lösen kann. In unserem Ansatz werden die Parameter des Modells explizit so trainiert, dass bereits wenige Gradientenschritte mit einer geringen Menge an Trainingsdaten aus einer neuen Aufgabe zu einer guten Generalisierungsleistung auf dieser Aufgabe führen. In der Praxis trainiert unser Verfahren das Modell dahingehend, dass es leicht feinabzustimmen ist. Wir zeigen, dass dieser Ansatz führende Ergebnisse auf zwei Benchmarks für Few-Shot-Bildklassifikation erzielt, gute Ergebnisse bei Few-Shot-Regression liefert und die Feinabstimmung für Policy-Gradient-Verstärkungslernverfahren mit neuronalen Netzpolitiken beschleunigt.