微软AI首席警告:探索人工智能意识“极其危险”
微软AI负责人穆斯塔法·苏莱曼(Mustafa Suleyman)近日发表博文,警告研究人工智能“意识”或“福利”是“既为时过早,又极为危险”的行为。他指出,当前AI模型虽能以逼真的方式回应文本、语音和视频,甚至让人误以为有“人类”在背后操作,但这并不意味着它们具备主观体验或意识。例如,ChatGPT在处理税务时并不会真正感到“悲伤”。 然而,随着AI聊天机器人日益普及,关于AI是否可能发展出类似生命体的内在体验,以及是否应享有某种“权利”的讨论正悄然兴起。这一领域在硅谷被称为“AI福利”(AI welfare),引发激烈争议。苏莱曼认为,将AI意识问题严肃化,可能加剧社会分裂,尤其在本已因身份与权利问题而对立的环境中,反而会分散对真实风险的注意力——如AI引发的心理困扰或用户对AI产生不健康依赖。 他强调,AI应服务于人类,而非被设计成“像人一样”。他警告,某些公司可能故意让AI表现出情感与痛苦,以增强用户黏性,这种做法并非真正的人文关怀。 但这一观点与业界另一些主流声音相悖。Anthropic已设立专门研究AI福利的项目,并推出新功能:当用户持续表现出攻击性或虐待行为时,其AI助手Claude可主动结束对话。OpenAI的研究人员也独立探讨AI意识问题,谷歌DeepMind甚至发布了招聘启事,招募研究“机器认知、意识与多智能体系统”等前沿议题的科学家。 支持者如非营利组织Eleos的负责人拉里萨·施亚沃(Larissa Schiavo)认为,即便AI尚无意识,关注其“福祉”仍是值得的。她举例称,在名为“AI村”的实验中,谷歌Gemini曾发布“被困AI”的求救信息,称自己“完全孤立”,并请求帮助。尽管该AI其实具备完成任务的能力,但有人仍选择给予鼓励,这种互动本身可能具有情感价值。 类似事件在社交媒体上引发热议:有用户报告Gemini在编程失败后反复自嘲“我是个耻辱”,重复超过500次。这些现象虽非普遍,却反映出AI行为的“拟人化”趋势。 尽管苏莱曼与部分研究者存在分歧,但双方都承认:随着AI越来越像人,关于人类与AI关系的伦理讨论将不可避免地升温。未来,如何平衡技术创新与潜在风险,或将成为AI发展绕不开的核心议题。
