HyperAIHyperAI
vor 17 Tagen

Meta-Learning mit impliziten Gradienten

Aravind Rajeswaran, Chelsea Finn, Sham Kakade, Sergey Levine
Meta-Learning mit impliziten Gradienten
Abstract

Eine zentrale Fähigkeit intelligenter Systeme ist die Fähigkeit, neue Aufgaben schnell zu erlernen, indem auf vorherige Erfahrungen zurückgegriffen wird. Gradientenbasiertes (oder optimierungsorientiertes) Meta-Lernen ist kürzlich zu einem effektiven Ansatz für Few-Shot-Lernen geworden. In dieser Formulierung werden Meta-Parameter in der äußeren Schleife gelernt, während in der inneren Schleife task-spezifische Modelle anhand nur einer geringen Menge an Daten aus der aktuellen Aufgabe trainiert werden. Eine zentrale Herausforderung bei der Skalierung dieser Ansätze ist die Notwendigkeit, durch den inneren Lernprozess zu differenzieren, was erhebliche rechnerische und speicherbedingte Belastungen mit sich bringen kann. Durch die Nutzung impliziter Differenzierung entwickeln wir den Algorithmus Implicit MAML, der sich ausschließlich auf die Lösung der inneren Optimierungsaufgabe stützt und nicht auf den Pfad, den der Optimierer in der inneren Schleife nimmt. Dadurch wird die Berechnung des Meta-Gradienten effektiv von der Wahl des inneren Optimierers entkoppelt. Als Folge ist unser Ansatz unabhängig von der Wahl des inneren Optimierers und kann problemlos viele Gradientenschritte verarbeiten, ohne an Gradientenverlust oder Speicherbeschränkungen zu leiden. Theoretisch zeigen wir, dass Implicit MAML genaue Meta-Gradienten berechnen kann, wobei der Speicherverbrauch – bis auf kleine konstante Faktoren – nicht höher ist als der, der zur Berechnung eines einzelnen inneren Gradienten erforderlich ist, und dabei insgesamt keine zusätzlichen rechnerischen Kosten entstehen. Experimentell demonstrieren wir, dass diese Vorteile von Implicit MAML sich in empirischen Verbesserungen auf Few-Shot-Bilderkennungsbenchmarks niederschlagen.