HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage par renforcement de Münchhausen

Nino Vieillard Olivier Pietquin Matthieu Geist

Résumé

Le bootstrapping est un mécanisme fondamental en apprentissage par renforcement (RL). La plupart des algorithmes, fondés sur les différences temporelles, remplacent la vraie valeur d’un état transitoire par leur estimation courante de cette valeur. Toutefois, une autre estimation pourrait être exploitée pour le bootstrapping en RL : la politique actuelle. Notre contribution principale repose sur une idée très simple : ajouter au reward immédiat le logarithme de la politique, correctement mis à l’échelle. Nous montrons qu’en modifiant légèrement le Deep Q-Network (DQN) selon cette approche, on obtient un agent compétitif avec les méthodes distributionnelles sur les jeux Atari, sans recourir à l’apprentissage distributionnel, aux retours n-étapes ou au replay prioritaire. Pour illustrer la polyvalence de cette idée, nous l’exploitons également avec un réseau quantile implicite (Implicit Quantile Network, IQN). L’agent ainsi obtenu surpasse Rainbow sur Atari, établissant un nouveau record d’état de l’art avec des modifications minimales apportées à l’algorithme initial. En complément de cette étude empirique, nous fournissons des perspectives théoriques solides sur le fonctionnement interne : une régularisation implicite de Kullback-Leibler et une augmentation de l’écart d’action.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp