2달 전
MyGO Multiplex CoT: 대형 언어 모델에서 두 번의 사고 과정을 통해 자기 반성 방법
Shihao Ji; Zihui Song; Fucheng Zhong; Jisen Jia; Zhaobo Wu; Zheyi Cao; Tianhao Xu

초록
최근 대형 언어 모델(LLMs)의 발전은 다양한 추론 및 의사결정 과제에서 뛰어난 능력을 보여주고 있습니다. 그러나 추론 과정의 품질과 일관성은 여전히 내성적 사고와 자기반성이 강화될 필요가 있습니다. 본 논문에서는 Multiplex CoT (Chain of Thought, 사고의 연속체)라는 방법을 소개합니다. 이 방법은 LLMs가 추론 과정에서 자기 검토 형태를 시뮬레이션할 수 있도록 두 번째 사고의 연속체를 시작하는 방식으로 작동합니다. Multiplex CoT는 반복적인 추론의 힘을 활용하여, 모델이 초기 사고의 연속체를 생성한 후 이를 비판하고 개선하기 위해 두 번째 사고 생성 단계를 거칩니다. 이러한 재귀적 접근 방식은 더 일관되고 논리적이며 견고한 답변을 가능하게 하여 전체 의사결정 과정을 개선합니다. 우리는 기존 LLM 아키텍처에서 간단한 프롬프트 엔지니어링을 사용하여 이 방법을 효과적으로 구현할 수 있는 방법을 제시하며, 추가 학습 없이 Learning-Refinement Model (LRM, 학습-개선 모델)과 유사한 효과를 달성할 수 있음을 보입니다. 또한, 이 방법을 Google Colab에 쉽게 통합할 수 있도록 실용적인 가이드를 제공합니다.