11일 전
진보적 힌트 프롬프팅은 대규모 언어 모델의 추론 성능을 향상시킨다
Chuanyang Zheng, Zhengying Liu, Enze Xie, Zhenguo Li, Yu Li

초록
대규모 언어 모델(Large Language Models, LLMs)의 추론 작업에서의 성능은 프롬프트 설계에 크게 의존하며, 체인 오브 써티(Chain-of-Thought, CoT)와 자기 일관성(self-consistency)은 이 능력을 향상시키는 핵심적인 방법들이다. 그러나 이러한 기법들은 LLM이 생성한 응답을 활용하여 후속 응답을 지도하는 데 한계가 있다. 본 논문에서는 기존에 생성된 응답을 힌트로 사용하여 사용자와 LLM 간의 자동적인 다중 상호작용을 가능하게 하는 새로운 프롬프팅 방법인 점진적 힌트 프롬프팅(Progressive-Hint Prompting, PHP)을 제안한다. PHP는 CoT 및 자기 일관성과 수직적(orthogonal) 관계를 가지며, 최신 기술들과 쉽게 통합되어 성능을 추가로 향상시킬 수 있다. 우리는 일곱 가지 벤치마크에서 광범위하고 종합적인 실험을 수행하였다. 그 결과, PHP는 정확도를 크게 향상시키면서도 매우 높은 효율성을 유지함을 확인하였다. 예를 들어, text-davinci-003 모델을 사용할 경우, 복잡한 CoT에 비해 탐색 경로를 46.17% 감소시키면서 그리디 디코딩에서 GSM8K에서 4.2%의 정확도 향상을 관찰하였다. 또한 GPT-4와 PHP를 결합했을 때, SVAMP(89.1% → 91.9%), GSM8K(92% → 95.5%), AQuA(76.4% → 79.9%), MATH(50.3% → 53.9%)에서 최신 기술 수준의 성능을 달성하였다.