Command Palette

Search for a command to run...

한 달 전

SIM-CoT: 감독 하에 의도된 사고의 사슬

Xilin Wei Xiaoran Liu Yuhang Zang Xiaoyi Dong Yuhang Cao Jiaqi Wang Xipeng Qiu Dahua Lin

SIM-CoT: 감독 하에 의도된 사고의 사슬

초록

암묵적 사고 체인(Chain-of-Thought, CoT) 기법은 대규모 언어 모델(Large Language Models, LLMs)에서 명시적 CoT 추론에 대한 토큰 효율적인 대안으로 주목받고 있으나, 지속적인 성능 격차로 인해 암묵적 CoT의 실용적 적용이 제한되어 왔다. 본 연구에서는 암묵적 CoT 접근법의 계산 예산을 확장함에 따라 핵심적인 잠재적 불안정성 문제를 규명하였다. 즉, 성능 향상을 위해 암묵적 추론 토큰의 수를 늘릴수록 학습 과정이 종종 불안정해지고 붕괴되는 현상이 발생한다. 분석 결과, 이러한 불안정성은 기존 암묵적 CoT 기법에서 단계 수준의 감독이 부족하여 잠재 표현이 동질화되고 의미적 다양성을 상실하기 때문임을 밝혔다. 이 문제를 해결하기 위해, 우리는 잠재 추론 공간을 안정화하고 풍부하게 만드는 플러그 앤 플레이(Plug-and-Play) 학습 모듈인 SIM-CoT를 제안한다. 구체적으로 SIM-CoT는 학습 과정에서 보조 디코더(auxiliary decoder)를 도입하여 각 암묵적 토큰이 해당되는 명시적 추론 단계와 일치하도록 조정함으로써, 잠재 상태가 독립적이고 의미 있는 정보를 잘 반영하도록 보장한다. 추론 단계에서는 보조 디코더를 제거함으로써 암묵적 CoT 기법의 계산 효율성을 유지하며 추가적인 부담 없이 작동한다. 또한 보조 디코더는 각 잠재 토큰을 명시적 추론 어휘 공간에 투영함으로써 암묵적 추론의 해석 가능성을 제공하며, 단계별로 의미 역할을 시각화하고 문제 진단이 가능하게 한다. SIM-CoT는 다양한 암묵적 CoT 기법의 도메인 내 정확도와 도메인 외 안정성을 크게 향상시켰으며, GPT-2에서 Coconut 기반 모델을 +8.2%, LLaMA-3.1 8B에서 CODI 기반 모델을 +3.0% 향상시켰다. 강력한 확장성도 입증되었으며, GPT-2에서는 명시적 CoT 기준보다 2.1% 높은 성능을 달성하면서도 토큰 효율성을 2.3배 향상시켰고, LLaMA-3.1 8B와 같은 대규모 모델에서도 성능 격차를 크게 줄였다.

AI로 AI 구축

아이디어에서 출시까지 — 무료 AI 공동 코딩, 즉시 사용 가능한 환경, 최적 가격 GPU로 AI 개발을 가속화하세요.

AI 공동 코딩
즉시 사용 가능한 GPU
최적 가격
시작하기

Hyper Newsletters

최신 정보 구독하기
한국 시간 매주 월요일 오전 9시 에 이번 주의 최신 업데이트를 메일로 발송합니다
이메일 서비스 제공: MailChimp
SIM-CoT: 감독 하에 의도된 사고의 사슬 | 연구 논문 | HyperAI초신경