2 个月前

《星际争霸多智能体挑战》

Mikayel Samvelyan; Tabish Rashid; Christian Schroeder de Witt; Gregory Farquhar; Nantas Nardelli; Tim G. J. Rudner; Chia-Man Hung; Philip H. S. Torr; Jakob Foerster; Shimon Whiteson
《星际争霸多智能体挑战》
摘要

近年来,深度多智能体强化学习(RL)已成为一个高度活跃的研究领域。在这个领域中,一类特别具有挑战性的问题是部分可观测的协作式多智能体学习,即智能体团队必须在仅基于各自私有观测的情况下学会协调行为。这一研究方向极具吸引力,因为这类问题与许多现实世界系统相关,并且比一般和博弈问题更容易进行评估。标准化环境如ALE(Arcade Learning Environment)和MuJoCo已经使单智能体强化学习超越了诸如网格世界的玩具域。然而,对于协作式多智能体强化学习而言,尚缺乏类似的基准测试。因此,该领域的大多数论文都使用一次性玩具问题,这使得衡量实际进展变得困难。本文提出将《星际争霸II》多智能体挑战(StarCraft Multi-Agent Challenge, SMAC)作为填补这一空白的基准问题。SMAC基于广受欢迎的即时战略游戏《星际争霸II》,专注于微观管理挑战,每个单位由一个独立的智能体控制,并且必须根据局部观测采取行动。我们提供了一系列多样化的挑战地图,并提出了基准测试和评估的最佳实践建议。此外,我们还开源了一个包含最先进算法的深度多智能体强化学习框架。我们认为,SMAC可以为未来的多年研究提供一个标准的基准环境。我们最佳智能体在多个SMAC场景中的表现视频可在此链接查看:https://youtu.be/VZ7zmQ_obZ0。

《星际争霸多智能体挑战》 | 最新论文 | HyperAI超神经