研究人员发现:AI艺术保护工具存在关键缺陷,艺术家作品依然面临风险
据国际研究团队指出,当前最常用的两款艺术品保护工具——Glaze和NightShade存在重大漏洞,无法有效防止生成式人工智能模型(如Stable Diffusion)未经授权地学习并模仿艺术家的独特风格。 这两款工具的工作原理是在图像中加入细微、肉眼难以察觉的扭曲(称为“中毒扰动”)。这些扰动旨在干扰AI模型的训练过程。Glaze采取被动方式,降低AI模型从图像中提取关键风格特征的能力。而NightShade更为激进,通过使AI模型错误地将艺术家的风格与无关概念关联起来,从而主动破坏训练数据的有效性。虽然这些工具深受数字艺术家们的欢迎,且已被近九百万次下载,但研究人员发现了一种名为LightShed的新方法,可以检测、逆向工程并移除这些中毒扰动,使得图像再次可用于AI模型的训练。 LightShed由来自剑桥大学、达姆施塔特工业大学和圣安东尼奥得克萨斯大学的研究人员共同开发,计划在今年8月的USENIX安全研讨会上展示。该方法分为三步:首先识别图像是否被已知的中毒技术修改;第二步通过公开可用的中毒样本学习扰动的特性;最后一步则是消除这些扰动,恢复图像原本未受保护的状态。在实验评估中,LightShed能够以高达99.98%的准确率检测到受NightShade保护的图像,并成功去除其保护。 研究的首位作者汉娜·福斯特(Hanna Foerster)来自剑桥大学计算机科学和技术系,她在研究期间曾于达姆施塔特工业大学实习。她表示:“这表明即使使用像NightShade这样的工具,艺术家仍然面临作品被未经授权的AI模型训练的风险。”不过,尽管LightShed揭示了现有保护工具的重大问题,研究团队并不认为其是一个攻击工具,而是希望借此引发行动,开发更强大、更具适应性的保护策略。 今年3月,OpenAI推出了一款能够瞬间生成宫崎骏动画风格图像的ChatGPT图像模型,引发了广泛的社交媒体讨论和关于图像版权保护的法律分析。在此之后,OpenAI宣布将增加提示保护措施,以阻止用户请求生成在世艺术家的特定风格图像。 然而,关于生成式AI和版权的问题依然悬而未决。伦敦高院目前正在审理一起涉及摄影机构Getty Images和AI公司Stability AI的版权侵权案,前者指控后者在其庞大的图像档案上训练模型,侵犯了版权。Stability AI则辩称此案是对生成式AI行业的“明目张胆的威胁”。此外,本月早些时候,迪士尼和环球宣布起诉Midjourney公司,称其图像生成器是个“无底洞般的抄袭”。 福斯特强调:“我们希望通过这项工作突出建立更加坚固、以艺术家为中心的保护策略的重要性,让创意人知道他们仍处于风险中,并与各方合作,开发更好的未来艺术保护工具。” 汉娜·福斯特是剑桥大学达尔文学院的成员,参与了此项研究工作的还包括达姆施塔特工业大学的阿哈德·雷扎·萨德吉教授(Professor Ahmad-Reza Sadeghi)。 这项研究不仅揭示了现有艺术保护工具的技术缺陷,也为未来的版权保护机制提供了宝贵的数据支持。随着AI技术的快速发展,如何平衡创意保护与技术创新已成为行业内的重要议题。希望此次研究能促使业界更多关注艺术家的权益,推动相关法律法规的完善。