千名公众人物联署呼吁暂停超级智能开发,AI安全争议再掀高潮
近日,由非营利组织“生命未来研究所”发起的一封公开信引发全球关注,已获逾千名公众人物联署,其中包括人工智能领域的奠基人杰弗里·辛顿、约书亚·本吉奥、姚期智,以及苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团创始人理查德·布兰森、哈里王子夫妇、前特朗普顾问史蒂夫·班农和奥巴马时期国家安全顾问苏珊·赖斯等。信中明确呼吁:在尚未形成“广泛的科学共识”证明超级智能可被安全控制,且未获得“强有力的公众支持”之前,全球领先的人工智能实验室应立即暂停对超级智能的开发。 信中指出,当前人工智能正迅速逼近能在几乎所有认知任务上超越人类的临界点,若缺乏有效监管,可能引发经济结构崩溃、人类失去对关键系统的控制、公民自由被侵蚀,甚至导致人类文明的终结。历史学家尤瓦尔·赫拉利警示,超级智能或将摧毁“人类文明的操作系统”,这一风险已非空穴来风。民调数据显示,73%的美国人支持对先进AI实施严格监管,64%认为在确保安全前不应推进超级智能研发。研究所主席马克斯·泰格马克强调:“95%的美国人不希望陷入一场通往超级智能的竞赛,而专家们也普遍认为应予以禁止。” 然而,这封信的实际影响力仍存疑。2023年,该组织曾发布“暂停AI开发六个月”的呼吁,但未对行业产生实质性影响。Meta、谷歌DeepMind、OpenAI等机构仍在加速推进强人工智能系统。部分激进专家预测,超级智能或在2020年代末出现。此次更严厉的警告,反而凸显出AI领域内部的深刻裂痕。 一边是辛顿、本吉奥等对生存级风险的深切忧虑,主张AI系统“从设计上就不可伤害人类”;另一边则是以Meta首席科学家杨立昆为代表的“技术乐观派”。杨立昆尖锐批评部分警告者“言行不一”——既公开警示危险,又在私下推进同类系统,并认为当前大模型被严重高估,正陷入技术瓶颈,远未达到威胁人类的程度。《人工智能:一种现代方法》作者斯图尔特·罗素则提醒,过热的预期可能引发类似互联网泡沫的崩盘。他强调,此次并非要求全面禁令,而是主张在继续开发前必须建立充分的安全保障机制。 OpenAI主席布雷特·泰勒也指出,当前AI热潮与20世纪末的互联网崛起有诸多相似之处。这场论战,本质上是关于技术发展路径的深刻分歧:我们是在逼近失控的边缘,还是正处在一个泡沫破灭的前夜? 尽管哈里王子等联署者强调“AI的未来应服务于人类,而非取代人类”,但答案尚无定论。在领先实验室持续投入巨资追求更强智能的背景下,这场关于人工智能终极形态的全球性辩论,才刚刚拉开序幕。
