“实现AGI仍需十年”:Karpathy剖析AI三大认知缺陷,重估技术发展进度
在人工智能热潮席卷全球的当下,Andrej Karpathy——这位曾掌舵特斯拉自动驾驶、参与创立OpenAI的顶尖技术专家,却选择为这场狂热按下暂停键。他在与Dwarkesh Patel的深度对话中,以长达两小时的阐述,系统性地质疑了当前对通用人工智能(AGI)的过度乐观预期。他的核心判断清晰而冷静:AGI的实现仍需十年,且这并非一个轻松的十年,而是一个必须正视技术局限、系统性挑战与现实约束的漫长征程。 Karpathy指出,当前行业普遍将AGI的落地时间压缩至数年内,这种预测忽视了技术演进的真实规律。他更倾向于将未来十年定义为“智能体的十年”——即AI系统在特定任务中展现自主行为能力的探索期。然而,他强调,如今所谓的“智能体”仍远未达到真正可用的水平。其根本症结在于三大认知缺陷:缺乏持续学习能力、多模态理解能力薄弱、以及无法真正“理解”人类意图的定制化需求。 他以自身构建极简版ChatGPT(nanochat)的经历为例,揭示当前AI编程助手的局限。当他在代码中采用非标准、自研的同步机制时,AI助手不仅无法理解,反而强行“纠正”为官方库,暴露出其对创新与灵活性的抗拒。此外,AI倾向于编写冗余代码,充斥过时API与过度防御性逻辑,导致效率低下。更关键的是,通过自然语言沟通(即“Vibe Coding”)来引导AI,效率远低于直接编码与自动补全。在他看来,AI目前更像是一个更聪明的语法高亮工具,而非独立开发者。 这一判断与他在特斯拉五年自动驾驶项目中的经验高度一致。他指出,从90%的可靠性提升至99%、再到99.9%,每增加一个“九”都需要与此前同等规模的投入。自动驾驶的进展缓慢,正是这一规律的体现。同样的曲线也适用于AI智能体在高风险领域的应用——哪怕每年仅出现一次严重错误,其社会代价也可能不可承受。 面对“AI自我迭代”的主流幻想,Karpathy表示怀疑。他认为强化学习(RL)依赖稀疏且噪声大的奖励信号,极易产生误判与反向激励,是一种低效的学习方式。他更看好系统提示学习与智能体交互学习等新范式,这些方法通过任务驱动的持续反馈,构建更稳定的认知闭环。他甚至提出“认知核心”概念:限制模型记忆,反而能促进抽象与推理能力,实现真正的泛化。 在经济影响层面,Karpathy给出惊人结论:AGI不会带来GDP的突变式增长。历史表明,从计算机到互联网,再到智能手机,所有重大技术革命最终都平滑地融入了长期2%的经济增长曲线。AI不过是计算能力的延伸,其影响将渐进式展开,而非制造“技术奇点”。 面对未来,Karpathy的担忧并非AI失控,而是人类失去主动权。为此,他正创办教育项目“Eureka”,旨在培养能驾驭技术的人类精英。在他构想中,AGI时代的学习将不再为功利,而回归本质——成为一种有趣、健康、自我实现的活动。当AI消除了学习的痛苦与障碍,人类将真正进入认知繁荣的新纪元。
