
要約
強化学習において、動的な環境での高次元かつ迅速な意思決定の自動化はしばしば困難であり、特にウェブベースのゲームなどの領域ではリアルタイムのオンライン相互作用と適応戦略が必要となる場合が該当します。本研究では、最新のフレキシブルディープQネットワーク(FDQN)フレームワークを提案し、この課題に対処します。FDQNは自己適応アプローチを採用しており、CNNを使用して高次元の感覚データをリアルタイムで処理し、異なるゲーム環境における変動する行動空間に動的に対応することで、様々なAtariゲームやChrome Dinoゲームにおける従来の基準モデルを上回る性能を発揮します。epsilon-greedyポリシーを使用することで、新しい学習と利用のバランスを効果的に取り、パフォーマンス向上に寄与しています。また、モジュール構造に基づいて設計されており、コア部分に触れることなく他のHTMLベースのゲームへの適用が容易です。実験条件においてFDQNフレームワークが明確に定義されたタスクを成功裏に解決できることを示すとともに、より挑戦的な現実世界のケースへの潜在的な応用についても議論し、自動化されたゲームプレイを超えた将来のさらなる探求の出発点となることを目指しています。