新算法让AI轻松移除私有与受版权数据
加州大学河滨分校(UC Riverside)的一支计算机科学团队开发出一种新方法,可在不依赖原始训练数据的情况下,让人工智能模型“遗忘”私密或受版权保护的信息。这项突破性技术解决了AI模型长期存储和泄露用户数据的全球性难题,相关成果已发表于7月在加拿大温哥华举行的国际机器学习会议,并上传至arXiv预印本平台。 该研究由博士生Ümit Yiğit Başaran领衔,团队成员还包括教授Amit Roy-Chowdhury和助理教授Başak Güler。他们提出了一种“无源认证遗忘”(source-free certified unlearning)方法,通过使用一个统计上与原始数据相似的“替代数据集”来调整模型参数,并引入精确校准的随机噪声,确保目标信息被彻底清除,且无法被重建。 这一技术的最大优势在于无需重新训练整个模型,也无需访问原始训练数据。在现实中,原始数据往往已丢失或无法获取,而传统方法难以实现有效删除。UCR团队的框架通过优化算法,高效模拟重新训练的效果,同时保证隐私保护水平接近完全重训,但计算成本大幅降低。 随着欧盟《通用数据保护条例》(GDPR)和加州《消费者隐私法案》等法规的实施,AI企业面临越来越严格的合规压力。此外,《纽约时报》已对OpenAI和微软提起诉讼,指控其使用大量受版权保护的文章训练GPT模型,导致内容被复制生成,绕过付费墙。 该技术不仅有助于企业满足法律要求,也对媒体机构、医疗机构等处理敏感数据的组织具有重要意义。它还赋予个人要求删除其数据的权利,实现真正可验证的“被遗忘权”。 研究人员表示,该方法目前适用于较简单的AI模型,未来将拓展至像ChatGPT这样的复杂系统。团队下一步计划优化技术以适配更多模型类型,并开发面向全球AI开发者的实用工具。论文标题为《一种无需访问源数据的认证遗忘方法》。该研究还得到布鲁克海文国家实验室的Sk Miraj Ahmed合作支持。
