HyperAIHyperAI

Command Palette

Search for a command to run...

Hunderte fordern Stop bei Superintelligenz-Entwicklung

近日,由非营利组织“生命未来研究所”(Future of Life Institute)发起的公开信引发全球关注,超过1,000名来自政界、商界、文化与科技领域的知名人士联署,呼吁在确保“广泛科学共识”和“强公众支持”之前,全面暂停超级智能(superintelligence)的研发。签署者包括人工智能奠基人杰弗里·辛顿、约书亚·本吉奥、姚期智,苹果联合创始人史蒂夫·沃兹尼亚克,维珍集团创始人理查德·布兰森,以及哈里王子夫妇、前特朗普顾问史蒂夫·班农和奥巴马时期国家安全顾问苏珊·赖斯等,阵容跨越意识形态与领域边界。信中警告,若人工智能在认知能力上全面超越人类,可能引发经济崩溃、社会失控、隐私瓦解乃至人类文明终结的风险,历史学家尤瓦尔·赫拉利更直言超级智能或将摧毁“人类文明的操作系统”。 这一呼吁并非孤立事件。与信件一同发布的民调显示,73%的美国人支持对先进AI实施强力监管,64%认同应在确保安全前禁止超级智能开发。研究所主席马克斯·泰格马克强调:“95%的美国人不希望陷入一场通往超级智能的竞赛,专家们也普遍支持暂停。”然而,此类倡议的实际影响力仍存疑。2023年该组织曾发起“暂停AI研发六个月”的呼吁,但未对主流科技公司产生实质性约束。Meta、谷歌DeepMind、OpenAI等机构仍在加速推进通用人工智能(AGI)系统,部分激进专家预测超级智能可能在2020年代末实现。 这场公开信背后,折射出AI行业内部日益加剧的分裂。以辛顿、本吉奥为代表的“风险警惕派”强调技术失控的潜在灾难,主张AI系统必须“从根本上无法伤害人类”;而以Meta首席科学家杨立昆为代表的“技术乐观派”则猛烈抨击此类警告为“理智上的不诚实”,认为当前大模型被过度夸大,且正陷入技术瓶颈,所谓“生存威胁”纯属杞人忧天。斯图尔特·罗素也提醒,当前过热的预期可能引发类似互联网泡沫的崩溃。OpenAI主席布雷特·泰勒则将当前AI热潮比作20世纪末的互联网革命,暗示其长期潜力不容低估。 这场辩论的本质,已超越技术范畴,触及人类对自身未来的根本判断:我们是在逼近失控边缘,还是正经历一场泡沫前夜的过度狂热?尽管各方立场对立,但共识在于——必须在技术突破与安全治理之间建立更坚实的护栏。这场关于AI终极形态的全球对话,才刚刚拉开序幕,而其走向,或将决定人类文明的下一个百年。

Verwandte Links