大型语言模型出现严重错误引关注
“发展超智能已近在眼前,”马克·扎克伯格宣称,这将带来“今天无法想象的新创造与新发现”。AI专家达里奥·阿莫迪称,强大AI可能在2026年出现,其能力将全面超越大多数领域的诺贝尔奖得主,甚至实现寿命翻倍,或“摆脱死亡的引力”。而萨姆·阿尔特曼则表示,业界已“确信掌握构建通用人工智能(AGI)的方法”——并认为,超智能AI将极大加速科学发现与创新,远超人类自身能力。我们该相信这些话吗?如果以人类智能的科学认知为标准,答案是否定的。因为当前AI系统,无论是OpenAI的ChatGPT、Anthropic的Claude、谷歌的Gemini,还是Meta最新推出的AI产品,本质上都是“大型语言模型”(LLM)。 这些系统的核心,是通过海量网络语言数据,识别词与词(更准确地说是“子词”token)之间的统计关联,再根据输入提示预测输出。尽管生成式AI被包装得极为复杂,其本质仍只是对语言的建模,而非对思维的复制。 问题在于,现代神经科学早已表明:人类的思维在很大程度上独立于语言。我们用语言来表达推理、抽象和概括等认知能力,但语言本身并非思维。理解这一区别,是区分科学事实与AI狂热者制造的科幻幻想的关键。 AI热潮不断鼓吹“我们正接近人类智能”甚至“超智能”,其逻辑是:数据越多,算力越强(如NVIDIA芯片),统计相关性越精准,AGI就自然出现。但这种“规模即智能”的理论在科学上站不住脚。LLM只是语言的模拟工具,无法复制真正的思维与推理过程,无论数据量多大、算力多强。 2023年,麻省理工学院的伊维琳娜·费多伦科、加州大学伯克利分校的史蒂文·皮安塔多西与MIT的爱德华·吉布森在《自然》杂志发表文章,明确指出:“语言本质上是交流工具,而非思维本身。”大量实证研究显示,即使语言能力严重受损,人们仍能进行数学计算、理解他人动机、逻辑推理和因果判断。婴儿在学会说话前,已能通过探索、实验和观察学习世界,这证明思维不依赖语言。 语言是人类高效传递知识的“认知工具”——它使我们能跨代学习,但不是智能的根源。而AI则不同:一旦移除语言,LLM将一无所有。即便AI在棋类等任务上超越人类,其路径也与人类不同。但要实现真正的人类级通用智能,仅靠语言数据训练远远不够。 越来越多AI研究者已意识到这一点。图灵奖得主杨·莱昆(Yann LeCun)已离开Meta,创立新公司开发“世界模型”——能理解物理世界、持续记忆、规划复杂行动的系统。而包括约书亚·本吉奥、埃里克·施密特、加里·马库斯等在内的顶尖学者,正共同定义AGI为“能匹配或超越受过良好教育的成年人的多领域认知能力”,强调智能是多种能力的复杂组合。 然而,即便我们能整合这些能力,也仍缺乏通向AGI的清晰路径。更重要的是:即使AI能完美复现人类思维,它也缺乏“对现有范式不满”的内在驱动力。科学革命往往源于对旧框架的质疑和新隐喻的创造。而AI系统被训练于既有的数据,只能“重述”已知,无法跳出“死隐喻”的牢笼。 因此,无论AI如何强大,它都可能只是我们知识的“复述者”,而非“创造者”。真正推动人类认知跃迁的,仍是那些敢于质疑、想象、创造的头脑——而那,是AI目前无法企及的。
