耶鲁博士突破AI记忆瓶颈,新框架让长文阅读快59倍且更精准
在处理超长文本时,人工智能常面临记忆瓶颈——读得越长,理解越慢,甚至遗忘关键信息。这一难题在阅读《红楼梦》《百年孤独》等鸿篇巨制时尤为明显,人类尚且会混淆人物关系,AI 更是难以应对。为破解这一困境,美国耶鲁大学博士生刘栋及其团队提出一种名为HSGM(Hierarchical Segment-Graph Memory)的新框架,显著提升了AI对长文本的理解效率与准确性。 HSGM的核心创新在于其分层记忆机制。不同于传统模型将整篇文章一次性编码并记忆,HSGM将文本划分为若干段落块(每块约256词),逐段进行深度理解。每个段落生成一张“语义地图”,精准刻画词语间的逻辑关系,如“小明—去—公园”“去—散步”。随后,系统为每段提取一个高阶摘要节点,相当于为章节撰写内容提要。这些摘要节点再被连接成一张全局概要图,形成对整篇文章的结构化认知。 当需要回答问题时,HSGM并非在全文中盲目搜索,而是先通过概要图快速定位相关段落,再调取对应的小地图进行精确定位。这一“先找书架,再翻书页”的策略,使推理速度提升2至4倍,最长可达59倍,尤其在2万词以上的超长文本中优势更为突出。同时,该框架内存占用减少60%以上,准确率仍保持在先进方法的95%以上,实现了效率与精度的双重突破。 HSGM的潜力远不止于阅读理解。它可广泛应用于智能问答系统,快速定位《红楼梦》中人物对话次数;在客服场景中,持续理解长时对话历史,精准把握用户需求;支持多跳推理,如“小明最初在哪上学?后来转到哪里?”;还能自动生成高质量摘要,助力新闻、法律文书等长文本的快速处理。在法律领域,律师可借助HSGM在海量条文与判例中快速定位关键信息。 更深远的意义在于,HSGM重新定义了AI的记忆管理方式。它将记忆划分为短期上下文、中期工作记忆与长期语义摘要,并将三者分别映射至GPU显存、主机内存与NVMe存储,实现按需动态迁移。这不仅“记得住”,更“记得对、取得快、忘得巧”。 刘栋不仅是该研究的主导者,也是FastLM.ai的创始人。该公司致力于构建高效的大模型推理基础设施,将HSGM的思路转化为可落地的产品,推动“记忆感知”能力在工业级系统中的应用。他强调,长序列处理不能简单依赖扩大上下文窗口,而需系统性解决注意力衰减、语义重复与信息遗忘等根本问题。随着扩散模型推动长视频与高分辨率生成成为常态,仅靠堆显存和带宽已不可持续。 未来,刘栋希望将HSGM的工程方法论发展为可复用、可演化的标准体系,使长序列推理从“靠运气堆卡”转向“可控、可解释、可扩展”的工程范式。他的愿景是打造一个真正“快、省、稳、智”的AI记忆基础设施,为下一代智能系统提供坚实底座。
