HyperAIHyperAI
il y a 2 mois

Méthodes Massivement Parallèles pour l'Apprentissage par Renforcement Profond

Arun Nair; Praveen Srinivasan; Sam Blackwell; Cagdas Alcicek; Rory Fearon; Alessandro De Maria; Vedavyas Panneershelvam; Mustafa Suleyman; Charles Beattie; Stig Petersen; Shane Legg; Volodymyr Mnih; Koray Kavukcuoglu; David Silver
Méthodes Massivement Parallèles pour l'Apprentissage par Renforcement Profond
Résumé

Nous présentons la première architecture massivement distribuée pour l'apprentissage par renforcement profond. Cette architecture utilise quatre composants principaux : des acteurs parallèles qui génèrent un nouveau comportement ; des apprenants parallèles qui sont formés à partir d'expériences stockées ; un réseau neuronal distribué pour représenter la fonction de valeur ou la politique de comportement ; et un magasin distribué d'expériences. Nous avons utilisé notre architecture pour implémenter l'algorithme Deep Q-Network (DQN). Notre algorithme distribué a été appliqué à 49 jeux issus des jeux Atari 2600 de l'environnement d'apprentissage de l'arcade, avec des hyperparamètres identiques. Nos performances ont surpassé celles du DQN non distribué dans 41 des 49 jeux et ont également réduit le temps nécessaire pour obtenir ces résultats d'un ordre de grandeur sur la plupart des jeux.