12 天前

AdaptFlow:基于元学习的自适应工作流优化

Runchuan Zhu, Bowen Jiang, Lingrui Mei, Fangkai Yang, Lu Wang, et al
AdaptFlow:基于元学习的自适应工作流优化
摘要

近年来,大型语言模型(LLMs)的快速发展激发了学术界对智能体工作流(agentic workflows)的广泛关注。这类工作流是由一系列结构化的LLM调用组成,旨在解决复杂任务。然而,现有方法通常依赖于静态模板或人工设计的工作流,这限制了其在多样化任务中的适应能力,并制约了可扩展性。为此,我们提出AdaptFlow——一种基于自然语言的元学习框架,其灵感源自模型无关的元学习(MAML)。AdaptFlow能够学习一种可泛化的任务初始化工作流,从而实现对子任务的快速适应。该框架采用双层优化机制:内层循环利用LLM生成的反馈,针对特定子任务对工作流进行优化;外层循环则更新共享的初始化参数,以确保在多种任务上均表现良好。这种架构使AdaptFlow能够通过语言引导的修改,有效适应未见过的任务。在问答、代码生成和数学推理等多个基准测试中,AdaptFlow的表现持续优于人工设计及自动搜索的基线方法,在任务与模型间均展现出卓越的泛化能力,达到当前最优水平。相关源代码与数据集已公开,详见本文链接。