中国拟新规限制AI使用聊天记录训练模型
中国正拟出台新规,加强对AI训练中使用聊天记录的监管。国家网信办周六发布声明,宣布已起草新措施,要求AI企业在使用用户聊天记录训练模型前,必须获得用户明确同意。此举旨在规范“拟人化”交互式AI服务,如聊天机器人和虚拟伴侣的安全与合规性。 新规草案强调,在用户与AI互动时,平台必须主动告知其为AI服务,并提供查看或删除聊天记录的选项。若需将对话数据用于模型训练或共享给第三方,必须取得用户单独授权。针对未成年人,平台还需获得监护人同意,并赋予监护人删除其聊天记录的权利。目前草案正在公开征求意见,反馈截止时间为下月初。 分析人士指出,尽管此类限制可能减缓AI聊天机器人通过用户反馈优化的速度,但中国AI生态整体仍具韧性。Omdia首席分析师连杰宇表示,限制聊天数据使用虽可能削弱强化学习中的“人类反馈”机制,但中国拥有庞大的公共与私有数据资源,足以支撑AI发展。此举更反映北京对国家安全与公共利益的重视,表明部分敏感对话不应被随意用作训练数据。 Counterpoint Research首席AI分析师孙薇认为,这些规定并非抑制创新,而是释放明确政策信号:强调用户保护与数据透明,而非技术封锁。她指出,一旦AI系统在安全与可靠性方面达标,政策将鼓励其在文化推广、老年陪伴等社会需求领域拓展应用。在人口老龄化加剧的背景下,这可被视为推动AI在可控、有益、可扩展方向发展的政策引导。 此次监管动向也呼应了全球对AI隐私风险的关注。此前有报道披露,Meta等科技公司雇佣外包人员审阅用户与AI的聊天内容,其中包含大量个人隐私信息,甚至涉及类似心理咨询的深度交流。Meta回应称,其有严格的数据访问控制机制,限制外包人员接触敏感信息,并设有防护流程。与此同时,谷歌AI安全工程师也提醒用户,应警惕将私密信息输入AI系统,以防被恶意利用。