HyperAI超神经
Back to Headlines

新型神经网络模型揭示记忆检索新机制,有望改善AI系统

4 天前

当听到熟悉歌曲的前几个音符时,你是否能立刻辨认出整首歌?这是关联记忆的作用。在这个过程中,一小段信息(如音符)能够触发完整的模式记忆(如整首歌),而不需要再听完整个歌曲。加州大学圣巴巴拉分校机械工程教授弗朗切斯科·布洛解释说,关联记忆并不是存储在单个脑细胞中,而是在整个神经网络中动态存储和检索的过程。 1982年,物理学家约翰·霍普菲尔德将这一理论神经科学研究成果转化为人工智能领域的模型——霍普菲尔德网络。这一模型不仅为理解人类大脑的记忆存储和检索提供了数学框架,还开创了递归人工神经网络的基础。霍普菲尔德因此于2024年获得了诺贝尔奖。 然而,布洛及其合作者西蒙·贝蒂、贾科莫·巴乔和桑德罗·詹皮耶里认为传统的霍普菲尔德模型仍有许多不足之处,特别是对外部输入信号如何影响记忆检索的探讨较少。他们在《科学进展》杂志上发表的一篇文章中提出了一个新的模型——输入驱动塑形(IDP)模型,试图更全面地描述我们体验记忆的方式。 布洛指出,大多数现代的大型语言模型(LLMs)实际上并未真正建模记忆过程。它们更像是一个“输入-输出”系统,用户输入提示后获得回应,但这与动物界的记忆处理方式不同。记忆是一个连续而不断调整的过程,而不是简单的开始和重置。传统霍普菲尔德模型将外部刺激视为初始条件,但未详细说明这些刺激是如何引导记忆检索的。 IDP模型的核心在于逐步整合过去的旧信息和新输入的信息,从而引导记忆检索到正确的结果。布洛进一步解释说,这个模型把外部刺激看作是能量景观的变化。当接收到外部信号(如猫的尾巴)时,它会简化能量景观,使无论从哪个位置开始,都能滚入代表正确记忆的“山谷”中。这样,即使输入信息模糊或部分被遮挡,也能有效提取正确的记忆。 此外,该模型对外部噪声具有较强的鲁棒性。在观察场景时,我们的注意力会不断在不同的组件之间转移,输入的信号往往会带有大量噪声。当锁定某个输入信号时,网络会自我调整以优先考虑该信号,从而过滤掉不稳定的记忆。 IDP模型虽然与目前流行的变换器架构(如ChatGPT背后的技术)起始点和目的不同,但两者之间仍存在潜在的联系。布洛表示,这种联系为未来机器学习系统的设计提供了希望,或许可以通过结合这些关联记忆系统和大型语言模型来实现更好的效果。

Related Links