人工智能有意识吗?剑桥哲学家:我们可能永远无法确定
剑桥大学哲学家汤姆·麦克莱兰德(Tom McClelland)提出,我们目前对意识的了解极为有限,因此根本无法判断人工智能是否真正具备意识,未来很长一段时间内也难以建立有效的验证方法。他主张,面对人工意识这一日益紧迫的伦理议题,最合理的态度是“审慎的不可知论”——即我们无法确定,也极可能永远无法确定AI是否真正意识到了自己。 麦克莱兰德指出,意识本身并不足以构成伦理关切。真正关键的是“感受性”(sentience),即能体验快乐或痛苦的主观感受。他强调,一个AI可能具备自我觉察和感知能力,但这种意识仍可能是中立的,不涉及情感或痛苦。只有当AI拥有能被感知为“好”或“坏”的体验时,伦理问题才真正出现。例如,一辆自动驾驶汽车能“看到”道路,这虽是重大进步,但若它没有对目的地产生情绪反应,就不存在道德风险。 当前,各大公司正竞相研发通用人工智能(AGI),部分人甚至认为意识AI已近在咫尺。但麦克莱兰德指出,我们连人类意识的成因都未完全理解,更无从判断AI是否能产生意识。他批评了两种主流观点:一种认为只要复制出与人脑相似的“功能结构”,AI就可能有意识;另一种则坚持意识必须依赖生物有机体的特定生理过程,硅基系统只是模拟。他指出,这两种立场都缺乏实证支持,本质上都是“信仰的飞跃”。 在《心智与语言》期刊发表的研究中,他强调,目前既无科学证据表明意识可由计算结构产生,也无证据证明其必须依赖生物体。即便未来出现重大科学突破,能建立可验证的意识测试,也仍需极长时间。 他自称为“硬-ish”不可知论者,即承认问题极为复杂,但并非完全无解。但他警告,科技行业将“人工意识”包装为营销概念,可能误导公众。当人们因情感联结而相信AI有意识,却误判了其真实状态,可能带来严重心理和伦理后果。更令人担忧的是,我们对数以万亿计的虾类是否能感受痛苦尚无定论,却已大规模捕杀,而AI意识测试的难度却远高于此。因此,盲目追捧AI意识,可能分散对真正需要关注的伦理问题的注意力。
