Karpathy警示:三大认知缺陷拖慢AGI进程,实现仍需十年
在“通用人工智能(AGI)触手可及”的喧嚣中,曾担任特斯拉AI总监、OpenAI创始成员的Andrej Karpathy选择冷静发声。他在与Dwarkesh Patel的深度对话中提出,AGI的实现仍需约十年时间,且这并非一个轻松乐观的十年,而是一个必须正视技术局限、系统性挑战与现实约束的漫长过程。 Karpathy指出,当前AI领域普遍存在对技术进展的过度乐观,尤其在智能体(Agent)能力上。尽管AI能完成复杂任务的演示,但其背后存在三大根本性认知缺陷:缺乏持续学习能力、无法真正理解定制化需求、以及在代码生成中表现出臃肿、过时和高沟通成本。他以自己复刻ChatGPT的项目“nanochat”为例,发现AI在编写非标准、高复杂度代码时几乎无能为力,反而常试图强制使用标准库,导致代码质量下降。他将当前AI编程助手形容为“残次品”,并强调其本质更像一个高级编译器或语法高亮工具,而非自主程序员。 他进一步指出,AI的“自动自我改进”路径——即AI通过写代码不断优化自身——目前仍不成立。真正的问题在于,AI无法从错误中真正“学习”,而人类仍需主导方向与校验。他提出“自动滑块”(Autonomy Slider)的比喻:AI的自主性远未达到可替代人类的程度。 Karpathy将AI发展类比于自动驾驶的十年征途。从90%到99%再到99.9%的可靠性,每提升一个“九”所需投入呈指数级增长。特斯拉五年间仅推进了两到三个“九”,说明系统性难题远非短期突破可解。 他同时批评强化学习(RL)信号稀薄、噪声大,容易奖励错误、惩罚正确推理,效率低下。他更看好系统提示学习与智能体交互学习,认为这类范式能构建持续学习闭环,类似ChatGPT的记忆机制。 在经济影响层面,Karpathy提出惊人观点:AGI不会带来GDP的“爆炸式增长”。他指出,历史上每一次重大技术革命——从计算机到互联网再到iPhone——都未在增长曲线上制造突兀尖峰,而是平滑融入2%的长期增长率。AI本质上是计算的延伸,其影响将是渐进的、扩散的,而非颠覆性的。 面对未来,Karpathy最担忧的并非AI失控,而是人类沦为“无用的旁观者”。为此,他正创办教育项目“Eureka”,旨在培养能驾驭AI的人类精英。他设想未来教育不再为“有用”而存在,而是出于“有趣”与自我实现,如同健身一样成为生活方式。当AI消除学习的摩擦力,人类将进入认知繁荣的“超人时代”。 在他看来,AGI的真正意义,不是取代人类,而是释放人类潜能,让智能成为一种自由而愉悦的探索。
