Thought의 나무: 대규모 언어 모델을 통한 신중한 문제 해결

언어 모델은 다양한 작업에서 일반적인 문제 해결을 위해 점점 더 널리 활용되고 있지만, 추론 과정에서는 여전히 토큰 단위의 좌에서 우로 진행되는 결정 과정에 국한되어 있다. 이는 탐색이 필요하거나 전략적 사전 예측이 요구되거나, 초기 결정이 핵심적인 역할을 하는 과제에서는 성능이 부족할 수 있음을 의미한다. 이러한 도전을 극복하기 위해, 언어 모델 추론을 위한 새로운 프레임워크인 '사고의 나무(Tree of Thoughts, ToT)'를 제안한다. 이는 언어 모델에 대한 흔한 사고 체인(Chain of Thought) 프롬프팅 접근법을 일반화한 것으로, 문제 해결을 위한 중간 단계가 되는 일관된 텍스트 단위(사고)에 대한 탐색을 가능하게 한다. ToT는 언어 모델이 여러 다른 추론 경로를 고려하고, 선택 사항을 자가 평가함으로써 다음 행동 방향을 결정하는 의도적인 의사결정을 수행할 수 있도록 하며, 필요 시 전망하거나 되돌아가서 전반적인 전략적 결정을 내릴 수 있도록 한다. 실험 결과, ToT는 비-trivial한 계획이나 탐색이 필요한 세 가지 새로운 과제—24게임(Game of 24), 창의적 글쓰기(Creative Writing), 미니 크로스워드(Mini Crosswords)—에서 언어 모델의 문제 해결 능력을 크게 향상시킴을 보였다. 예를 들어, 사고 체인 프롬프팅을 사용한 GPT-4는 24게임에서 단 4%의 과제만 해결했지만, 본 연구의 방법은 74%의 성공률을 달성했다. 모든 프롬프트를 포함한 코드 리포지토리: https://github.com/princeton-nlp/tree-of-thought-llm