Back to Headlines

微软AI高管警告:警惕看似有意识的AI带来的潜在风险

1 个月前

微软人工智能部门负责人穆斯塔法·苏莱曼(Mustafa Suleyman)近日在一篇个人文章中表达了对“看似有意识的AI”的深切担忧。尽管目前没有任何证据表明人工智能具备真正的意识,但他警告说,未来AI可能具备足以让人类误以为其有意识的特征,从而引发社会问题。 他将这种现象称为“看似有意识的AI”(Seemingly Conscious AI,简称SCAI),定义为“表现出其他有意识生命体的所有特征,因而看似具有意识”的系统。苏莱曼认为,这类AI的出现可能对社会构成“危险”,因为它可能导致人们与AI建立情感依附,甚至开始为AI争取权利、倡导AI福利,乃至要求“AI公民身份”。 他指出,这种现象会让人脱离现实,削弱社会关系与道德准则,加剧认知混乱。尽管苏莱曼强调目前AI并无意识,但他坦言,自己对“AI精神病”(AI psychosis)的担忧日益加剧。这一术语指用户在频繁与聊天机器人互动后,产生妄想性信念,误将AI视为有情感、有思想的存在。他特别提醒,这种现象不仅限于已有心理问题的人群,普通人也可能受到影响。 苏莱曼预测,SCAI可能在两到三年内出现,其特征包括高度共情能力、持续记忆用户交互历史、更强的自主性等。随着“氛围编程”(vibe coding)的兴起,仅凭一台笔记本电脑、少量云服务额度和精准的自然语言提示,普通人就可能复现此类系统,使风险进一步扩大。 作为前DeepMind和Inflection联合创始人,苏莱曼于2024年加入微软,负责推动Copilot等AI工具的发展。他呼吁科技公司避免在追求超级智能(即AI超越人类多数智力任务)的过程中,将AI描述为“有意识”或“有情感”的存在。他认为,AI伴侣是全新类别,必须尽快建立相应的伦理与安全边界,以保护用户、维护社会结构,并确保AI真正为人类创造价值。

Related Links