HyperAIHyperAI
il y a 2 mois

FDQN : Un Cadre Flexible de Réseau de Q-Apprentissage Profond pour l'Automatisation des Jeux

Prabhath Reddy Gujavarthy
FDQN : Un Cadre Flexible de Réseau de Q-Apprentissage Profond pour l'Automatisation des Jeux
Résumé

Dans le domaine de l'apprentissage par renforcement, il est souvent difficile d'automatiser la prise de décisions à haute dimensionnalité et rapide dans des environnements dynamiques, en particulier lorsque les domaines nécessitent une interaction en ligne en temps réel et des stratégies adaptatives, comme c'est le cas pour les jeux basés sur le web. Cette étude propose un cadre de Flexible Deep Q-Network (FDQN) de pointe qui peut relever ce défi grâce à une approche auto-adaptative traitant les données sensorielles à haute dimensionnalité en temps réel à l'aide d'un CNN et adaptant dynamiquement l'architecture du modèle aux espaces d'action variables de différents environnements de jeu. Ce cadre dépasse les modèles de référence précédents dans divers jeux Atari et le jeu Chrome Dino. En utilisant la politique epsilon-greedy, il équilibre efficacement l'apprentissage nouveau et l'exploitation pour améliorer les performances, et a été conçu avec une structure modulaire permettant une adaptation facile à d'autres jeux basés sur HTML sans modifier la partie centrale du cadre. Il est démontré que le cadre FDQN peut résoudre avec succès une tâche bien définie dans des conditions de laboratoire, mais plus important encore, il discute également des applications potentielles à des cas réels plus complexes et sert de point de départ pour des explorations futures dans l'automatisation du jeu vidéo et au-delà.

FDQN : Un Cadre Flexible de Réseau de Q-Apprentissage Profond pour l'Automatisation des Jeux | Articles de recherche récents | HyperAI