全球科学家紧急呼吁:划定人工智能红线,填补国际政策空白
超过200位前国家领导人、外交官、诺贝尔奖得主、人工智能专家及科学家联合发起“全球AI红线倡议”,呼吁各国尽快达成国际共识,明确AI不可逾越的“红线”。该倡议由法国人工智能安全中心(CeSIA)、未来社会(The Future Society)及加州大学伯克利分校人类兼容人工智能研究中心共同推动,已有70多个相关组织签署。 倡议核心目标是:在2026年底前,由各国政府达成一项具有法律效力的国际政治协议,明确规定AI不得从事的行为,例如:禁止AI伪造人类身份、禁止其自我复制,以及防止其失控或威胁人类安全。签署者包括“深度学习之父”杰弗里·辛顿、OpenAI联合创始人沃伊切赫·扎雷姆巴、Anthropic首席信息安全官杰森·克林顿、Google DeepMind科学家伊恩·古德费洛等全球AI领域重量级人物。 法国人工智能安全中心执行主任查贝尔-拉斐尔·塞吉里在发布会上强调:“我们不应等到重大灾难发生才反应,而应提前预防那些可能造成不可逆后果的系统性风险。”他指出,即使各国尚未就AI的未来方向达成一致,也必须就“AI绝对不能做什么”形成共识。 尽管欧盟已通过《人工智能法案》,禁止部分高风险AI应用,中美也达成共识,确保核武器始终由人类控制,但全球层面尚未建立统一规范。倡议方认为,仅靠企业自愿承诺无法真正保障安全,必须建立一个具备强制力的独立全球机构,负责制定、监督并执行AI红线。 加州大学伯克利分校AI专家斯图尔特·拉塞尔指出,AI行业应像核能产业一样,在技术成熟前暂停开发高风险系统。他强调:“我们不必为经济进步而放弃对超级智能的控制。发展有益AI与避免毁灭性AGI之间,并不存在非此即彼的矛盾。”他反对将AI监管等同于阻碍创新,认为真正的创新应从安全出发,而非事后补救。
