哈里王子联手史蒂夫·班农,公开反对超级智能研发
一个由各界知名人士组成的跨界联盟近日发出共同呼吁:科技巨头不应仓促推进超级智能(Superintelligence,即AGI)的发展。超级智能是指在几乎所有领域都超越人类智能的AI系统,被视为AI领域的终极目标。尽管Meta等公司已投入巨资推进相关研发,甚至CEO马克·扎克伯格声称“超级智能已近在眼前”,但越来越多专家和公众对其发展速度和安全性表示担忧。 由未来生命研究所(Future of Life Institute)发起的《关于超级智能的声明》已获得超过1300人联署,其中包括苹果联合创始人史蒂夫·沃兹尼亚克、AI“三巨头”之一的杰弗里·辛顿和约书亚·本吉奥,以及加州大学伯克利分校教授斯图尔特·拉塞尔等顶尖科学家。他们强调,必须在具备“广泛科学共识”和“公众广泛支持”之前,禁止超级智能的开发。拉塞尔指出:“要求为可能引发人类灭绝风险的技术建立充分的安全保障,难道过分吗?” 该声明并非全面禁止,而是呼吁建立严格的安全机制。目前,公众对AI快速普及普遍感到忧虑。皮尤研究中心最新调查显示,全球多数人对AI在日常生活中的广泛应用表示担忧,其中美国人尤为突出。 值得注意的是,这份声明的签署者背景多元,涵盖政治光谱:右翼媒体人史蒂夫·班农、格伦·贝克,奥巴马时期国家安全顾问苏珊·赖斯,前国会议员,联合国前人权高官玛丽·罗宾逊,教皇AI顾问保罗·贝南蒂神父,以及英国的哈里王子与梅根王妃。此外,还包括演员约瑟夫·高登-莱维特、音乐人will.i.am和Grimes,以及作家尤瓦尔·赫拉利。赫拉利表示:“超级智能可能摧毁人类文明的运行基础,且完全没必要。我们应专注于开发可控、有益于现实人类的AI工具。” 这并非首次有公众人物联合警示AI风险。2023年,OpenAI CEO山姆·阿尔特曼、Anthropic CEO达里奥·阿莫迪等曾联名呼吁全球将AI灭绝风险置于与疫情、核战同等优先级。同年另一封由未来生命研究所发布的公开信更获超3.3万人签名,包括埃隆·马斯克,呼吁暂停比GPT-4更强大的AI训练六个月,但该倡议未被采纳。OpenAI随后推出GPT-4o和GPT-5,引发用户强烈反弹,尤其因GPT-5取代GPT-4o而被指制造情感依赖。 此次声明中,阿尔特曼、阿莫迪、微软AI负责人穆斯塔法·苏莱曼、白宫AI与加密货币主管戴维·萨克斯及马斯克均未署名。尽管如此,许多未签署者也公开警示过超级智能的风险。例如,阿尔特曼曾在2015年博客中称:“超级人类机器智能的发展,可能是人类持续存在的最大威胁。”当前AI正以无监管的速度奔向超级智能,而安全与伦理的警钟,正被越来越多的声音敲响。
