오프라인 메타-RL
오프라인 메타-RL은 오프라인 강화 학습(오프라인 RL)과 메타 강화 학습(메타-RL)을 결합한 새로운 연구 방향입니다. 이 개념은 2020년 DeepMind 연구팀에 의해 처음 제안되었으며 논문 "오프라인 메타 강화 학습"에 대한 자세한 내용은 "에서 설명합니다. 오프라인 데이터(즉, 사전에 수집되어 온라인 상호작용에 의존하지 않는 데이터)를 활용하여 모델을 학습시키고, 광범위한 온라인 상호작용 없이도 새로운 작업이나 새로운 환경에 빠르게 적응할 수 있도록 하는 것을 목표로 합니다. 이러한 접근 방식은 의료 및 자율 주행 분야처럼 온라인 상호작용 비용이 높거나 위험이 높은 시나리오에 특히 적합합니다.