
要約
深層強化学習手法は、多くの困難な協調的マルチエージェントタスクにおいて優れた性能を示している。現在、主な有望な研究方向として、マルチエージェント価値関数の分解とマルチエージェント方策勾配の二つが挙げられている。本論文では、上記の二つのアプローチの利点を効果的に統合する新しい分解型マルチエージェントソフトアクターキャリブレーター(mSAC)手法を提案する。主な構成モジュールには、分解型Qネットワークアーキテクチャ、離散確率的方策、および反事実的アドバンテージ関数(オプション)が含まれる。理論的には、mSACは離散および連続アクション空間の両方において、効率的なオフポリシー学習をサポートし、報酬割り当て問題の一部を解決できる。StarCraft IIのミクロマネジメント協調的マルチエージェントベンチマーク上で実験を行い、mSACの変種との性能比較と各モジュールの影響を実証的に分析した。実験結果から、mSACは方策ベースの手法COMAを顕著に上回り、アシントート的性能指標において、最先端の価値ベース手法Qmixと同等の結果を多数のタスクで達成することが示された。さらに、mSACは2c_vs_64zgやMMM2など、大規模なアクション空間を有するタスクにおいても優れた性能を発揮した。