哈佛与MIT研究显示:AI模型尚不能完全理解科学原理
哈佛大学和麻省理工学院的一项最新研究揭示了大模型在科学发现方面的一个重要局限性:尽管人工智能(AI)可以预测太阳明天会升起,但它无法解释为何会有这种现象。这一问题引发了对于大型语言模型(LLM)是否能够编码世界模型的质疑,或者说它们只是擅长于序列中的下一个词预测? 研究人员选择了一个历史上具有代表性的案例——轨道力学,来验证这个假设。具体而言,他们训练了一个基于变压器架构的AI模型,使其能够做出关于行星围绕太阳运动的预测。然后,团队测试了该模型是否真正理解了牛顿力学的基本原理,比如万有引力定律。 实验结果显示,尽管AI可以在一些简单情况下做出正确的预测,但它并未完全掌握牛顿的物理学理论。这意味着即使模型能够高度精确地预测未来,但其背后欠缺的是对物理世界的深度理解。如果AI模型只停留在预测层面而不能解释背后的因果关系,那么这将是对实现通用人工智能(AGI)目标的重大打击。 这项研究的核心观点是,当前的AI模型依赖于大量的数据输入和复杂的算法,而不是基于对自然规律的深刻认知来生成答案。虽然这些模型能够处理和分析大量信息,甚至在某些特定任务上超越人类,但它们在解决需要深层次科学理解的问题时仍显得力不从心。研究团队认为,未来的AI系统需要具备更强的“世界模型”能力,也就是说,它们必须能够不仅仅预测结果,还能够理解和解释这些预测的基础。 专家们的评论指出,这项研究为AI的发展方向提供了宝贵的指导。它不仅强调了AI在科学领域的局限性,还提出了一个重要的研究课题:如何让AI模型从单纯的预测工具转变为真正的理解者。这为今后的科学研究和技术开发指明了一条新的路径。同时,哈佛大学和麻省理工学院作为美国顶尖的研究机构,在人工智能领域一直保持着前沿的地位,他们的研究成果具有很高的权威性和可信度,为全球相关领域的学者提供了重要的参考。 此次研究的结果也引发了行业内外的广泛讨论,表明虽然当前的人工智能技术已经取得了显著的进步,但在理解现实世界的复杂因果关系方面还有很长的路要走。这不仅是一个技术上的挑战,更是一个科学上的难题,未来的突破可能需要跨学科的合作才能实现。