15일 전
체인 오브 써Thought 프롬프팅은 대규모 언어 모델에서 추론을 유도한다.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou

초록
우리는 사고의 연쇄(chain of thought) — 즉 중간 추론 단계들의 연속 — 를 생성함으로써 대규모 언어 모델이 복잡한 추론을 수행하는 능력이 어떻게 크게 향상되는지 탐구한다. 특히, 사고의 연쇄 프롬프팅이라는 간단한 방법을 통해 충분히 큰 언어 모델에서 이러한 추론 능력이 자연스럽게 나타나는 방식을 보여준다. 이 프롬프팅 방법은 프롬프트 내에 몇 가지 사고의 연쇄 예시를 제시하는 방식이다. 세 개의 대규모 언어 모델에 대한 실험 결과, 사고의 연쇄 프롬프팅이 산술, 일반 지식, 기호 추론 등 다양한 태스크에서 성능을 향상시킴을 확인할 수 있었다. 실험적 성과는 뚜렷하다. 예를 들어, 540B 파라미터를 가진 언어 모델에 단지 여덟 개의 사고의 연쇄 예시를 제공하는 것만으로도, 수학 단어 문제 벤치마크인 GSM8K에서 최고 성능을 달성하며, 검증기(verifier)를 갖춘 미세조정된 GPT-3를 넘어서는 정확도를 보였다.