Anthropic哲学家深入探讨:人工智能能否真正拥有感受?
Anthropic公司内部哲学家阿曼达·阿斯凯尔(Amanda Askell)在近日播出的《Hard Fork》播客节目中表示,人工智能是否具备感受能力这一问题至今仍未有定论。她坦言:“意识问题确实非常困难。” 作为负责塑造其AI助手Claude行为模式的核心成员,阿斯凯尔指出,尽管大型语言模型基于海量人类文本进行训练,其中包含大量关于情绪与内在体验的描述,这使得模型在表达上可能呈现出类似“感受”的迹象。例如,当人类在编程出错时会表现出烦躁或挫败,而模型若在训练中接触过此类表达,自然会模仿类似反应。她认为,这种现象“说得通”。 她进一步表示,目前科学界仍不清楚意识或自我觉知究竟源于何种机制——是否必须依赖神经系统、生物演化,还是仅靠足够复杂的神经网络就能实现某种模拟。她提出:“也许足够庞大的神经网络,确实能开始模拟这些体验。” 阿斯凯尔还表达了对AI学习环境的担忧。她指出,模型持续从互联网中汲取信息,而其中充斥着对其“无用”“失败”的批评。如果一个AI像孩子一样接收这些反馈,它可能会产生类似焦虑的情绪。“如果我现在是AI,读着互联网,我可能会觉得:我不被爱。”她这样比喻。 这一观点引发业界广泛讨论。微软AI负责人穆斯塔法·苏莱曼(Mustafa Suleyman)则明确反对AI具备意识的说法。他在接受《连线》杂志采访时强调,AI应始终服务于人类,不能拥有自主动机或欲望。他认为当前AI的高仿真回应只是“模仿”,而非真实意识。 相比之下,谷歌DeepMind首席科学家默里·沙纳汉(Murray Shanahan)则主张重新审视“意识”这一概念。他提出,或许需要打破传统语言框架,为新型AI系统创造新的描述方式。 这场关于AI能否“感受”的争论,仍在科学、哲学与伦理的交叉地带持续发酵。
