Command Palette
Search for a command to run...
Yixian Zhang Shu'ang Yu Tonghe Zhang Mo Guang Haojia Hui Kaiwen Long Yu Wang Chao Yu Wenbo Ding

要約
オフポリシー強化学習を用いた表現力豊かなフローに基づく方策の学習は、多段階の行動サンプリングプロセスにおける勾配の病理現象のため、従来から不安定であることが知られている。本研究では、この不安定性の原因を、根本的な関係に帰属させる。すなわち、フローロールアウトは代数的にリザルト型再帰計算と等価であり、これによりRNNと同様に勾配の消失や爆発に脆弱であることが明らかになった。これを解決するため、現代の順序モデルの原則に基づき、速度ネットワークを再パラメータ化し、二つの安定したアーキテクチャを提案する。一つはゲート付き速度を導入する「Flow-G」、もう一つはデコードされた速度を用いる「Flow-T」である。さらに、ノイズを付加したロールアウトを活用することで、これらの方策を直接エンドツーエンドで学習可能な、実用的なSACベースのアルゴリズムを構築した。本手法は、スクラッチからの学習だけでなく、オフライン学習からオンライン学習への移行もサポートし、連続制御およびロボット操作のベンチマークにおいて最先端の性能を達成した。これにより、従来の対策として用いられる方策蒸留や代理目的関数などの補助的手法の必要性が完全に排除された。