聊天机器人有道德指南针吗?研究者从Reddit对话中寻找答案
聊天机器人是否有道德判断力?加州大学伯克利分校的研究人员通过在热门Reddit论坛上收集数千个道德困境,对多个AI聊天机器人进行测试,发现不同平台的AI似乎遵循着各自独特的“道德准则”。 研究人员将Reddit用户自发讨论的真实道德难题输入到包括GPT-4、Claude、Gemini等主流AI聊天机器人中,观察它们在面对生死抉择、公平分配、责任归属等复杂情境时的回应。结果发现,尽管问题相似,不同AI模型的判断差异显著,有的倾向于功利主义,有的更强调规则与义务,还有的表现出明显的文化或价值倾向。 例如,在经典的“电车难题”变体中,有的AI支持为拯救五人而牺牲一人,有的则因“主动伤害”而拒绝干预。在涉及隐私、歧视或社会正义的问题上,AI的回答也因训练数据和设计原则的不同而大相径庭。 研究团队指出,这些差异并非偶然,而是反映出各AI系统背后不同的价值观取向和训练方式。这表明,目前的AI聊天机器人并非中立的“道德机器”,而是承载了其开发者所设定或隐含的伦理框架。 该研究提醒人们:在将AI用于医疗、司法、教育等高敏感领域时,必须正视其“道德偏见”问题。未来,建立可解释、可审计的AI伦理评估机制,或将成为推动可信AI发展的关键一步。