Command Palette
Search for a command to run...

摘要
基于大语言模型(LLM)的网络代理在信息检索任务中展现出巨大潜力,然而其在长周期任务中的有效性受到上下文管理机制中一个根本性权衡的制约。现有的基于ReAct范式的代理在执行过程中容易因累积噪声大、原始的历史记录过多而导致上下文饱和;而那些在每一步固定对完整历史进行摘要的方法,则存在不可逆地丢失关键细节的风险。针对上述问题,我们提出了AgentFold——一种新型代理范式,其核心在于主动式上下文管理,灵感源自人类认知过程中的“回溯性整合”机制。AgentFold将上下文视为一个动态的认知工作空间,而非被动填充的记录日志,强调对其主动塑造与重构。在每一步决策中,该模型学习执行一种“折叠”(folding)操作,能够在多个尺度上对历史轨迹进行有效管理:既能进行细粒度的压缩以保留关键的细微信息,也能实现深层次的整合,抽象出完整的多步子任务。在多个主流基准测试上的实验结果令人瞩目:仅通过简单的监督微调(无需持续预训练或强化学习),我们的AgentFold-30B-A3B代理在BrowseComp任务上达到36.2%的准确率,在BrowseComp-ZH任务上达到47.3%。值得注意的是,这一性能不仅超越或媲美了许多规模大得多的开源模型(如DeepSeek-V3.1-671B-A37B),更显著优于当前领先的闭源代理,例如OpenAI的o4-mini。