Command Palette
Search for a command to run...
Apprentissage métadépendant du modèle pour une adaptation rapide des réseaux de neurones profonds
Apprentissage métadépendant du modèle pour une adaptation rapide des réseaux de neurones profonds
Finn Chelsea Abbeel Pieter Levine Sergey
Résumé
Nous proposons un algorithme d’apprentissage métadonnées (meta-learning) qui est indépendant du modèle (model-agnostic), au sens où il est compatible avec tout modèle entraîné par descente de gradient et applicable à divers problèmes d’apprentissage, notamment la classification, la régression et l’apprentissage par renforcement. L’objectif de l’apprentissage métadonnées consiste à entraîner un modèle sur une variété de tâches d’apprentissage, de manière à ce qu’il puisse résoudre de nouvelles tâches à l’aide d’un nombre très restreint d’exemples d’entraînement. Dans notre approche, les paramètres du modèle sont explicitement ajustés de manière à ce qu’un petit nombre d’étapes de descente de gradient, appliquées à un nouveau problème avec une faible quantité de données d’entraînement, permettent d’obtenir de bonnes performances de généralisation sur cette tâche. En somme, notre méthode entraîne le modèle pour qu’il soit facile à adapter (fine-tuning). Nous montrons que cette approche atteint des performances de pointe sur deux benchmarks de classification d’images en peu d’exemples (few-shot), produit des résultats satisfaisants en régression en peu d’exemples, et accélère le fine-tuning dans le cadre de l’apprentissage par renforcement par gradient de politique utilisant des politiques paramétrées par réseaux de neurones.