
초록
수학적 추론 능력은 언어 모델(LM)에게 필수적인 능력으로 간주된다. 최근의 연구들은 대규모 언어 모델이 수학 문제를 해결하는 데 놀라운 성능을 보이고 있음을 보여주었다. 이러한 성공은 체인 오브 써포트(Chain-of-Thought, CoT) 추론 능력에 기인하며, 이는 복잡한 질문을 단계적인 추론 체인으로 분해할 수 있는 능력을 의미한다. 그러나 이러한 능력은 파라미터 수가 매우 많은 모델에서만 나타나는 것으로 보인다. 본 연구는 상대적으로 작은 언어 모델에 다단계 추론 능력을 부여하는 방법을 탐구한다. 우리는 다단계 산술 과제(Multi-step Arithmetic Tasks)로 구성된 합성 데이터셋 MsAT을 활용하여 언어 모델을 지속적으로 사전 훈련함으로써 이러한 능력을 주입하는 방안을 제안한다. 네 개의 수학 단어 문제 데이터셋에서 수행한 실험 결과, 제안한 방법이 언어 모델의 수학적 추론 능력을 효과적으로 향상시킨다는 것이 입증되었다.