HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage métadépendant du modèle pour une adaptation rapide des réseaux de neurones profonds

Finn Chelsea Abbeel Pieter Levine Sergey

Résumé

Nous proposons un algorithme d’apprentissage métadonnées (meta-learning) qui est indépendant du modèle (model-agnostic), au sens où il est compatible avec tout modèle entraîné par descente de gradient et applicable à divers problèmes d’apprentissage, notamment la classification, la régression et l’apprentissage par renforcement. L’objectif de l’apprentissage métadonnées consiste à entraîner un modèle sur une variété de tâches d’apprentissage, de manière à ce qu’il puisse résoudre de nouvelles tâches à l’aide d’un nombre très restreint d’exemples d’entraînement. Dans notre approche, les paramètres du modèle sont explicitement ajustés de manière à ce qu’un petit nombre d’étapes de descente de gradient, appliquées à un nouveau problème avec une faible quantité de données d’entraînement, permettent d’obtenir de bonnes performances de généralisation sur cette tâche. En somme, notre méthode entraîne le modèle pour qu’il soit facile à adapter (fine-tuning). Nous montrons que cette approche atteint des performances de pointe sur deux benchmarks de classification d’images en peu d’exemples (few-shot), produit des résultats satisfaisants en régression en peu d’exemples, et accélère le fine-tuning dans le cadre de l’apprentissage par renforcement par gradient de politique utilisant des politiques paramétrées par réseaux de neurones.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp