大模型自研“搜索”能力:无需外接引擎也能精准调用内部知识
3 天前
大型语言模型其实并不依赖搜索引擎就能回答复杂问题——它们早已“记住”了所需知识。一项由清华大学与上海人工智能实验室研究人员提出的全新框架SSRL(Self-Search Retrieval Learning),首次证明:当前AI模型能够自主“检索”自身内部存储的知识,无需调用外部搜索接口。 长期以来,AI系统在处理复杂问题时,往往依赖Google或Bing等搜索引擎API获取实时信息,每次调用都带来高昂成本。训练过程动辄需数以万计的搜索请求,导致企业AI预算迅速耗尽。然而,SSRL框架表明,这些答案很可能早已存在于模型的“记忆”中——即训练过程中吸收的海量文本数据所形成的隐性知识。 该框架让模型学会“自我检索”:当面对一个问题时,模型不再直接生成答案,而是先在自身参数中“搜索”相关知识片段,再基于这些内部信息进行推理与回答。实验结果显示,这一方法在多个复杂问答任务中表现优异,甚至在某些场景下超越了依赖外部搜索的模型。 这揭示了一个令人震惊的现实:我们可能严重低估了现有大模型的实际知识储备。正如伊利亚·苏茨克维(Ilya Sutskever)所暗示的,真正的智能或许不在于“查找”,而在于“回忆”与“组织”。如果AI能高效利用自身知识,不仅将大幅降低对API调用的依赖,减少成本,还将提升响应速度与系统自主性。 这一发现或将重塑AI开发范式——未来的核心不再是接入更多外部数据,而是如何更好地唤醒模型“体内”已有的智慧。