HyperAIHyperAI

Command Palette

Search for a command to run...

千名公众人物联署呼吁为超级智能踩刹车,辛顿再发警报

近日,由非营利组织“生命未来研究所”(Future of Life Institute)发起的公开信获得超过1000名公众人物联署,呼吁在确保“广泛科学共识”和“强烈公众支持”之前,全面禁止超级智能的开发。信中指出,当前人工智能正加速向能在几乎所有认知任务上超越人类的系统迈进,若失控,将带来经济崩溃、社会失序、公民自由丧失,甚至人类灭绝的极端风险。历史学家尤瓦尔·赫拉利警示,超级智能可能摧毁“人类文明的操作系统”。 签署者阵容涵盖科技、政治、文化等多领域重量级人物,包括“AI教父”杰弗里·辛顿、约书亚·本吉奥、图灵奖得主姚期智,苹果联合创始人史蒂夫·沃兹尼亚克,维珍集团创始人理查德·布兰森,哈里王子夫妇,特朗普前战略顾问史蒂夫·班农,以及奥巴马时期国家安全顾问苏珊·赖斯等。信中强调,应暂停对超级智能的开发,直到其安全可控性获得科学界普遍认可,并获得公众广泛支持。 民调显示,73%的美国人支持对先进AI进行强监管,64%认为在安全未保障前不应推进超级智能。该组织主席马克斯·泰格马克表示:“95%的美国人不希望卷入一场通往超级智能的竞赛,专家们也普遍希望禁止。” 然而,这封信的现实影响力仍存疑。2023年该组织曾发布“暂停AI开发六个月”的呼吁,但未对行业产生实际约束。Meta、谷歌DeepMind、OpenAI等核心实验室仍在持续推进AGI(通用人工智能)研究。部分专家如Meta首席AI科学家杨立昆则持强烈反对态度,批评警告者“在理智上不诚实”,认为当前大模型被高估,正陷入技术死胡同,谈“灭绝风险”为时过早。 与此同时,斯图尔特·罗素等学者提醒,过热的预期可能引发类似互联网泡沫的崩盘。OpenAI主席布雷特·泰勒则类比互联网早期,认为AI热潮正处发展关键期。这场辩论正揭示AI行业内部的深刻分裂:一边是辛顿、本吉奥等对生存风险的深切忧虑,另一边是杨立昆等技术乐观派的坚定推进。 尽管本吉奥主张AI必须“根本无法伤害人类”,哈里王子也强调“AI应服务于人类”,但关于超级智能的终极路径,尚无定论。在领先实验室持续加速的背景下,这场关乎人类未来的论战,才刚刚拉开序幕。

相关链接