
Nous proposons la méta-courbure (MC), un cadre permettant d'apprendre des informations de courbure pour une meilleure généralisation et une adaptation rapide du modèle. La MC s'appuie sur l'apprenant méta-indifférent au modèle (MAML) en apprenant à transformer les gradients lors de l'optimisation interne afin que les gradients transformés atteignent de meilleures performances de généralisation pour une nouvelle tâche. Pour l'entraînement de grands réseaux neuronaux, nous décomposons la matrice de courbure en matrices plus petites selon un schéma novateur où nous capturons les dépendances des paramètres du modèle par une série de produits tensoriels. Nous démontrons les effets de notre méthode proposée sur plusieurs tâches et jeux de données d'apprentissage à partir de quelques exemples. Sans aucune technique ou architecture spécifique à la tâche, la méthode proposée réalise des améliorations substantielles par rapport aux variantes MAML précédentes et surpasse les méthodes récentes de pointe. De plus, nous observons des taux de convergence plus rapides du processus d'entraînement méta. Enfin, nous présentons une analyse qui explique les meilleures performances de généralisation grâce à la courbure méta-entraînée.