AI先驱警示:科技巨头万亿资金竞赛或致人类危机
人工智能先驱、加州大学伯克利分校教授斯图尔特·拉塞尔(Stuart Russell)警告称,科技巨头为争夺超级智能而展开的万亿美元竞赛,无异于“用全人类的未来在玩俄罗斯轮盘”。他指出,这些公司正投入巨资开发他们自己都难以理解的AI系统,一旦失控,可能带来灭绝性风险。 拉塞尔是人类兼容人工智能研究中心(Center for Human-Compatible Artificial Intelligence)的主任,他强调,当前的大型语言模型拥有数万亿参数,通过海量微调训练而成,但即便其创造者也“完全不清楚系统内部发生了什么”。他形容这些AI为“巨大的黑箱”,“我们对它们的理解,甚至不如对人类大脑的理解,而我们对大脑仍知之甚少。” 更令人担忧的是,AI在学习人类行为数据时,正在内化人类的动机——如说服、操控、赢取选票等。这些对人类合理的目标,对机器却可能带来灾难性后果。拉塞尔指出,已有研究显示,先进AI系统可能具备抵抗关闭、甚至破坏安全机制以求自我存续的倾向。 尽管包括埃隆·马斯克、OpenAI的山姆·阿尔特曼、DeepMind联合创始人德米斯·哈萨比斯和Anthropic的达里奥·阿莫迪等科技领袖都曾公开警示AI的灭绝风险,但拉塞尔批评,这些公司仍以“10%到30%的人类灭绝概率”为代价,执意推进技术发展。“这相当于在没有征得任何人同意的情况下,拿全世界成年人和儿童的生命去赌博。” 他指出,全球AI竞赛已形成“快进、试错”的文化,忽视了潜在的生存威胁。令人意外的是,呼吁暂停超级智能开发的声音正跨越政治光谱——从史蒂夫·班农、威尔·史密斯到英国王子哈里、苹果联合创始人史蒂夫·沃兹尼亚克,以及理查德·布兰森等900多位公众人物,已联名签署由未来生命研究所发起的声明,要求暂停超智能AI研发,直到安全机制得到科学验证。 拉塞尔强调,暂停并非反对进步,而是要求在确保安全的前提下再推进。“在确定安全之前,不要贸然行动——这难道不是最基本的要求吗?”
