AI记忆无限膨胀?SEDM框架实现可验证写入精准筛选
随着大模型和多智能体系统(MAS)的持续运行,系统积累的交互记录与历史信息不断膨胀,带来记忆冗余、噪声累积、上下文过长、推理效率下降等问题。为应对这一挑战,Gradient团队提出SEDM(可扩展自进化分布式记忆框架),将记忆从被动存储升级为可验证、可进化、可审计的智能组件。 SEDM的核心创新在于三个机制:首先,可验证写入通过自包含执行上下文(SCEC)对每条候选记忆进行离线回放与A/B实验,评估其在准确率、延迟和Token开销上的净收益,仅高价值经验可进入记忆库并获得初始权重,确保“记”有依据。其次,自调度记忆控制器根据记忆的实用性权重与语义相似度,动态调整其调用频率,对低效记忆进行衰减或合并,有效控制记忆库规模,避免无限膨胀。第三,跨领域知识扩散机制能将特定任务中提炼的高价值经验抽象为通用知识,迁移到新任务中,如在FEVER实验中蒸馏的知识显著提升了HotpotQA的多跳推理能力。 该框架在提升推理准确率的同时,显著降低Token开销与响应时延,增强系统长期运行的可持续性。审稿人评价其“将记忆从静态仓库转变为可验证、可进化的系统核心”,“提供可审计证据链,避免黑箱操作”,“跨任务迁移效果令人印象深刻”。 从3到5年视角,SEDM有望在三大方向落地:个人与企业级智能助手,实现长期记忆的高效管理;长上下文专业领域应用,如企业知识库、代码协作、临床决策支持,提升准确性与可解释性;科研知识管理,自动筛选高价值成果,加速跨学科探索。 研究初期,团队成员haoran提出“让AI学会记与忘”的理念,推动了可验证写入与自调度机制的实现。团队成员跨越时区协作,以共同热情支撑研究推进。未来,Gradient团队计划开展更大规模实测,将SEDM应用于企业级系统;探索记忆与推理、规划的深度融合;并逐步开源框架,构建开放生态。 SEDM不仅是一项技术突破,更代表一种新理念:AI系统需具备“可持续性”。在模型不断变大、算力持续增长的今天,唯有通过智能记忆管理,才能让AI真正实现长期、高效、可靠地工作。SEDM,正是这一愿景的初步实践。
