AGI幻想正在拖累现实中的工程突破
在阅读Karen Hao的《AI帝国》一书时,我深感硅谷对AGI(通用人工智能)的狂热信念已演变为一种阻碍实际工程进步的幻想。OpenAI的许多核心成员,包括伊利亚·苏茨克弗,公开宣称要“感受AGI”的存在。在2022年的一次公司聚会上,苏茨克弗甚至点燃了一个象征“被误导的对齐AGI”的木偶,以此强调其危险性——这已远非技术讨论,而近乎宗教仪式。 这种信念的根源,是“纯语言假说”:即认为只要用海量语言数据训练大模型,AGI自然会涌现。GPT-2的成功让这一信念在OpenAI内部根深蒂固,进而推动了无止境的规模扩张——更多数据、更多参数、更多算力。然而,这种路径依赖导致了巨大的代价:超大规模数据中心每秒消耗数百升水,依赖污染性燃气发电机供电,其碳排放堪比整座城市。同时,为保障输出安全,数以万计的低薪数据标注员在高压下工作,承受心理创伤,只为过滤出不当内容。 更值得警惕的是,这些投入的正当性,被“期望价值”(Expected Value)的算术所支撑:即使AGI出现的概率极低(如0.001%),只要其潜在价值足够大,整体期望值就“合理”。但这种计算完全基于虚构的概率与价值,无法验证,也无视了真实存在的环境成本——这些外部性有明确的、可量化的负价值,且已由全人类承担。 从技术角度看,LLM作为AGI的路径,正因这股幻想而失败:它不高效、不节制、更不人道。真正的问题不在于“是否能造出AGI”,而在于我们是否在用最糟糕的方式解决最实际的问题。若放下AGI的执念,转而以工程思维看待生成模型——为具体任务选择更小、更专一的模型,甚至使用非生成的判别模型——我们才能真正实现有效、高效、无害的技术进步。技术的使命,是解决问题,而不是追逐神话。
