分析称单个真实数据或可阻止 AI 模型崩溃
一项最新研究提出,防止人工智能模型崩溃只需引入一个真实世界的数据点,有望化解 AI 幻觉频发的风险。所谓“模型崩溃”,是指当大语言模型(LLM)主要利用自身生成的低质量数据进行训练时,其输出将逐渐失效,产生大量毫无逻辑的“乱码”内容。随着高质量人类文本数据日渐枯竭,AI 自生数据在训练中的占比激增,引发了这一隐患。 来自伦敦国王学院、挪威科技大学及阿卜杜斯·萨拉姆国际理论物理中心的研究团队,通过分析一类名为“指数族”的统计模型发现,只要将外部真实数据点整合进训练过程,即可在所有情况下杜绝模型崩溃。研究发表于《物理评论快报》,指出在封闭循环中仅靠模型自身生产数据进行最大似然训练,必然导致崩溃。然而,引入一个外部数据点,或是在训练中融入基于过往知识的先验信念,就能有效阻止这一现象。令人惊讶的是,即便机器生成的数据量无限大,这一个外部数据点依然能发挥关键作用。 研究团队进一步在受限玻尔兹曼机中观察到了类似现象,表明该原理可能具有普适性,不仅限于指数族模型。首席研究员亚瑟·鲁迪教授表示,以往研究多聚焦于复杂且黑盒化的大模型,难以解释崩溃原因。通过简化模型,团队从统计学角度阐明了单一数据点的作用机制,为未来构建更稳健的 AI 系统奠定了理论基础。随着生成式 AI 在自动驾驶、智能对话等关键领域的应用加深,该发现为科学家提供了防止灾难性后果的重要工具。研究团队后续计划将这些原则应用于神经网络等更复杂的模型中进行验证。
