7日前
Thoughtの木:大規模言語モデルを用いた熟考型問題解決
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan

要約
言語モデルは、幅広いタスクにおいて一般的な問題解決にますます活用されているが、推論過程では依然としてトークン単位の左から右への逐次的決定プロセスに制限されている。この制約により、探索が必要なタスクや戦略的な先読みが求められる状況、あるいは初期の決定が最終結果に大きな影響を及ぼすような場合において、モデルの性能が十分に発揮されないことがある。こうした課題を克服するため、本研究では言語モデルの推論を一般化する新しい枠組み「Thoughtsの木(Tree of Thoughts: ToT)」を提案する。ToTは、言語モデルにプロンプトを提示する際によく用いられる「Chain of Thought(思考の連鎖)」アプローチを拡張したものであり、問題解決への中間ステップとして機能する一貫性のあるテキスト単位(思考)の探索を可能にする。ToTにより、言語モデルは複数の異なる推論経路を検討し、自らの選択を評価することで、意図的な意思決定を実現できる。必要に応じて将来を見通したり、過去の選択を巻き戻したりすることで、グローバルな最適な決定を下すことが可能となる。実験の結果、ToTは、非自明な計画性や探索を要する3つの新規タスク——「24ゲーム」、「創造的執筆」、「ミニクロスワード」——において、言語モデルの問題解決能力を顕著に向上させることを示した。例えば「24ゲーム」において、Chain of Thoughtプロンプトを用いたGPT-4はわずか4%のタスクしか解けなかったが、本手法では74%の成功率を達成した。すべてのプロンプトを含むコードリポジトリ:https://github.com/princeton-nlp/tree-of-thought-llm