
초록
강화 학습에서 다차원적이고 빠른 의사결정을 동적인 환경에서 자동화하는 것이 어렵습니다. 특히 웹 기반 게임과 같은 영역에서는 실시간 온라인 상호작용과 적응 전략이 필요하기 때문에 더욱 그렇습니다. 본 연구는 이러한 문제를 해결하기 위해 최신의 유연한 딥 Q-네트워크(Flexible Deep Q-Network, FDQN) 프레임워크를 제안합니다. 이 프레임워크는 CNN을 사용하여 고차원 센서 데이터를 실시간으로 처리하고, 다양한 게임 환경의 변동적인 행동 공간에 따라 모델 아키텍처를 동적으로 조정하여, 여러 아타리 게임과 크롬 공룡 게임에서 이전 베이스라인 모델들을 능가하는 성능을 보여줍니다. 엡실론-그리디(epsilon-greedy) 정책을 사용하여 새로운 학습과 활용 사이의 균형을 효과적으로 맞추어 성능 향상을 이루며, 모듈식 구조로 설계되어 프레임워크의 핵심 부분을 변경하지 않고도 다른 HTML 기반 게임에 쉽게 적용할 수 있습니다. 실험실 조건에서 잘 정의된 작업을 성공적으로 해결할 수 있다는 것을 입증하였지만, 더 중요한 것은 더 도전적인 실제 사례에 대한 잠재적 응용 분야를 논하며, 자동화된 게임 플레이 및 그 이상의 미래 탐구를 위한 출발점이 될 수 있음을 강조합니다.