推理模型与人脑信息处理具相似性
近期,MIT麦戈文脑研究所的研究团队发现,新一代“推理模型”在处理复杂问题时表现出与人类极为相似的“思考成本”——即解决难题所需的时间与认知资源。这一发现发表于《美国国家科学院院刊》(PNAS),揭示了人工智能在认知方式上正悄然逼近人类思维的本质。 传统大型语言模型(LLM)如ChatGPT虽能快速生成文本,但在数学计算、逻辑推理等任务上常表现不佳。而如今,以“推理模型”为代表的新一代AI通过分步拆解问题、逐步推演的机制,显著提升了复杂任务的解决能力。这些模型在训练中采用强化学习,通过奖励正确答案、惩罚错误结果,自主探索问题空间,从而形成更接近人类“思考过程”的内部演算路径。 研究团队由脑与认知科学副教授伊维琳娜·费多伦科(Evelina Fedorenko)领导,博士后研究员安德烈·格雷戈尔·德·瓦尔达(Andrea Gregor de Varda)设计实验,将推理模型与人类志愿者置于相同的七类问题中,包括算术、图形推理(如ARC挑战)和直觉判断等。研究人员发现,人类解决难题所花费的时间越长,模型生成的“内部token”(即模型自言自语式的中间推理步骤)也越多。尤其在最复杂的图形变换任务中,人类与模型的“思考成本”高度一致。 值得注意的是,这种相似性并非刻意设计。模型开发者关注的是性能与准确性,而非模仿人类思维。然而,研究团队指出,这一“收敛现象”令人震惊——说明在某些关键维度上,AI的推理机制与人类大脑在处理复杂问题时的策略存在深层共性。 尽管模型在推理过程中会生成类似语言的中间输出,但这些内容常包含错误或无意义片段,表明其真实计算过程可能发生在非语言、抽象的表征空间中,这与人类“不依赖语言思考”的认知方式一致。 研究团队强调,这并不意味着AI已复制人类智能,而是揭示了智能行为背后可能存在普遍的计算原则。未来他们将进一步探究模型是否具备人类所需的世界知识、能否处理未在训练数据中明确表达的情境,以及其内部表征是否与大脑神经活动相似。 这项研究为理解人工智能的认知机制提供了新视角,也暗示:当AI开始“像人一样思考”时,我们或许正站在理解智能本质的新起点上。
