Zongwei Li Zhonghang Li Zirui Guo Xubin Ren Chao Huang

摘要
近年来,大型语言模型(LLMs)的快速发展催生了强大的代码生成智能体,使代码助手逐步演变为具备工程能力的代码工程师。然而,现有方法在实现高保真度的“文档到代码库”合成(如将科学论文转化为可运行代码)方面仍面临重大挑战,其根本原因在于信息过载与LLM上下文容量瓶颈之间的固有矛盾。在本研究中,我们提出DeepCode——一个完全自主的框架,通过系统化的信息流管理,从根本上解决这一难题。DeepCode将代码库生成建模为信道优化问题,通过无缝协调四种信息操作,在有限的上下文预算下最大化与任务相关的信息信号:基于蓝图蒸馏的源码压缩、利用有状态代码记忆的结构化索引、通过检索增强生成实现的条件化知识注入,以及闭环错误修正机制。在PaperBench基准上的大量实验表明,DeepCode达到了当前最优性能,显著超越了Cursor和Claude Code等主流商业智能体,并且在关键复现指标上首次超越了顶尖科研机构博士水平的人类专家。通过系统性地将论文技术规范转化为可媲美人类专家水平的生产级实现,本研究为自主科学复现建立了全新范式,有望显著加速科研评估与发现进程。