承包商可访问用户与Meta AI的聊天记录,个人数据安全引担忧
Meta的AI聊天机器人在训练过程中,其用户对话内容被外包合同工阅读,部分对话中包含用户的全名、电话号码、电子邮件、性别、兴趣爱好甚至自拍照等个人身份信息。多位通过Outlier(Scale AI旗下平台)和Alignerr招聘的合同工向Business Insider透露,他们在审核Meta AI对话时频繁接触到高度私密的内容。 这些对话涵盖情感倾诉、心理疗愈式交流、浪漫幻想,甚至涉及用户工作、家庭和隐私问题。有合同工表示,超过六成的聊天记录中包含可识别个人身份的信息。在名为“Omni”的项目中,一些用户甚至向AI发送了自拍和露骨照片。项目文档显示,Meta有时会将用户个人信息附在聊天记录旁,用于帮助AI更个性化回应。 尽管Meta声称对合同工访问个人数据有严格限制,并要求他们发现敏感信息后立即标记并跳过任务,但实际操作中仍存在风险。有合同工指出,仅凭项目中提供的姓名、城市、性别和兴趣等信息,就可在几分钟内通过社交媒体平台找到对应的真实用户档案。一位负责处理一段包含敏感内容的对话的合同工表示,内容过于令人不适,不得不暂停工作。 Meta方面回应称,公司有“严格政策”控制数据访问,合同工仅在必要时才能处理个人数据,并需遵守安全规范。Scale AI也表示,员工只能按项目要求处理数据,且必须上报包含个人身份信息的内容。但专家指出,这些机制仍不完善。AI治理实验室主任Miranda Bogen警告,用户不应默认聊天机器人是私密的,尤其当对话涉及情感支持或敏感信息时,其内容可能被人类审核员读取,存在被滥用、诈骗或操纵的风险。 目前,Meta、OpenAI、谷歌等科技公司均在用户协议中说明,可能使用聊天记录训练AI模型。然而,用户往往未意识到自己的对话可能被人类查看。专家强调,数据最小化、自动脱敏和用户控制机制在行业中仍不统一且执行不力。尽管有流程要求人工标记和删除敏感信息,但系统漏洞依然存在,说明当前隐私保护体系远未完善。