Command Palette
Search for a command to run...

초록
실제 세계의 과제는 다양한 결정의 세부 수준(granularity)에서 결정을 내려야 하며, 인간은 계획을 고수준의 행동 형태로 본다는 통합된 인지 표현을 활용함으로써 이에 뛰어나게 대응한다. 그러나 현재의 대규모 언어 모델(LLM) 기반 에이전트는 이러한 결정의 세부 수준 간 유연하게 작동할 수 있는 핵심 능력을 결여하고 있다. 이 한계는 기존의 패러다임이 고수준의 계획과 저수준의 행동 간에 엄격한 경계를 설정함으로써 발생하며, 이는 동적 적응 능력을 저해하고 일반화 능력을 제한한다. 본 연구에서는 계획과 행동을 하나의 코드 표현 내에서 통합함으로써 이 한계를 극복하는 새로운 패러다임인 ReCode(Recursive Code Generation, 재귀적 코드 생성)를 제안한다. 이 표현 방식에서 ReCode는 고수준 계획을 추상적인 자리표시 함수로 간주하고, 에이전트가 이를 반복적으로 하위 함수로 세분화하여 원시적인 행동에 도달할 때까지 재귀적으로 분해한다. 이러한 재귀적 접근은 계획과 행동 간의 엄격한 경계를 해소함으로써 에이전트가 결정의 세부 수준을 동적으로 조절할 수 있도록 한다. 또한, 재귀적 구조는 본질적으로 풍부한 다중 수준의 훈련 데이터를 생성하며, 이는 모델이 계층적인 결정 과정을 학습하는 데 기여한다. 광범위한 실험 결과를 통해 ReCode가 고급 기준 모델 대비 추론 성능에서 뚜렷한 우수성을 보이며, 훈련 시 놀라운 데이터 효율성을 입증하였다. 이는 재귀적 코드 생성을 통해 계획과 행동을 통합하는 것이 보편적인 결정 세부 수준 제어를 달성하기 위한 강력하고 효과적인 접근임을 확인하는 우리의 핵심 통찰을 뒷받침한다. 코드는 https://github.com/FoundationAgents/ReCode 에서 공개되어 있다.