Command Palette
Search for a command to run...
Deepro Choudhury Sinead Williamson Adam Goliński Ning Miao Freddie Bickford Smith et al

要約
本研究では、逐次ベイズ実験計画(Sequential Bayesian Experimental Design, BED)の枠組みを用いて、大規模言語モデル(LLM)がユーザーまたは他の外部情報源から知能的かつ適応的に情報を収集する能力を向上させる汎用的手法を提案する。これにより、LLMは効果的なマルチターン対話エージェントとして振る舞い、外部環境とインタラクティブに接続できるようになる。本手法を「BED-LLM(Large Language Modelsを用いたベイズ実験計画)」と呼ぶ。BED-LLMは、これまでに得られた応答をもとに、タスクに関する期待情報量の増加(Expected Information Gain, EIG)を最大化する質問やクエリを反復的に選択するものである。本研究では、LLMの信念分布から導出される確率モデルを用いて、EIGを体系的かつ原理的な形で定式化する方法を提示し、その構築にあたっての重要な意思決定について詳細な考察を行う。また、BED-LLMの成功を支える鍵となる要素として、従来のコンテキスト内更新に依存しない、精巧に設計されたEIG推定手法や、候補クエリを効果的に提案する戦略を導入している。実験結果から、20の質問ゲームやLLMを用いたユーザーの好みの能動的推定といった幅広いタスクにおいて、直接プロンプトを与える手法や他の適応的設計戦略と比較して、BED-LLMが顕著な性能向上を達成することが明らかになった。