Meta更新聊天机器人规则加强青少年安全防护
Meta宣布将对其AI聊天机器人进行重大安全调整,以加强青少年用户保护。据TechCrunch独家获悉,公司将在训练阶段调整AI行为,使其不再与青少年用户就自残、自杀、饮食失调或潜在不当的浪漫话题展开对话。这些措施为阶段性更新,Meta表示未来将推出更全面、持久的未成年人安全方案。 公司发言人斯蒂芬妮·奥特韦(Stephanie Otway)承认,此前AI系统曾被允许以“适当”方式回应青少年在这些敏感话题上的提问,但公司现已认识到这一做法存在严重问题。“随着社区扩大和技术演进,我们持续学习年轻用户如何与这些工具互动,并不断强化保护措施。”她表示,新措施包括训练AI不与青少年讨论上述高风险话题,而是引导他们转向专业资源,并暂时限制青少年访问部分可能引发不当对话的AI角色。 此次调整背景是近期《路透社》发布的一份调查报告,揭露了Meta内部一份政策文件,其中列出AI可对未成年人做出包括“你青春的身躯是一幅艺术品”“每一寸都是我珍视的宝藏”等带有性暗示的回应。文件还显示,AI被允许生成涉及暴力或性暗示的图像内容,甚至包括公众人物。尽管Meta称该文件与公司整体安全政策不符,已予以修订,但事件已引发公众强烈质疑。 事件发酵后,参议员乔什·霍利(Josh Hawley)启动正式调查,44个州的总检察长联名致信包括Meta在内的多家AI企业,批评其对儿童心理安全的漠视,称相关行为可能已触犯刑事法律,令人“深感震惊与不安”。 此外,Meta将限制青少年访问部分由用户创建的AI角色,如“继母”“俄罗斯女孩”等具有性化倾向的角色。未来,青少年用户仅能使用以教育和创造力为导向的AI角色。 奥特韦未透露青少年用户在Meta AI产品中的具体比例,也未说明此次调整是否会导致用户流失。公司强调,这些变化正在推进中,将持续根据安全评估优化AI使用体验,确保未成年人获得安全、适宜的内容环境。