
Wir schlagen Meta-Krümmung (MC) vor, ein Framework zur Lernkurveninformation für eine bessere Generalisierung und schnellere Modellanpassung. MC erweitert den modellagnostischen Meta-Lerner (MAML), indem es lernt, die Gradienten im inneren Optimierungsprozess zu transformieren, so dass die transformierten Gradienten eine bessere Generalisierungsleistung auf eine neue Aufgabe erzielen. Für das Training großer neuronaler Netze zerlegen wir die Krümmungsmatrix in kleinere Matrizen nach einem neuartigen Schema, bei dem wir die Abhängigkeiten der Modellparameter durch eine Reihe von Tensorprodukten erfassen. Wir demonstrieren die Effekte unserer vorgeschlagenen Methode an mehreren Few-Shot-Lern-Aufgaben und Datensätzen. Ohne spezifische Aufgaben-Techniken und -Architekturen erreicht die vorgeschlagene Methode erhebliche Verbesserungen gegenüber früheren MAML-Varianten und übertrifft die neuesten Stand der Technik-Methoden. Darüber hinaus beobachten wir höhere Konvergenzraten des Meta-Trainingsprozesses. Schließlich präsentieren wir eine Analyse, die die verbesserte Generalisierungsleistung mit der durch Meta-Training gelernten Krümmung erklärt.