Back to Headlines

视觉艺术家困局:现有工具难挡AI爬虫侵袭

3 天前

一项由加州大学圣地亚哥分校与芝加哥大学研究人员联合开展的新研究显示,尽管视觉艺术家普遍希望保护作品不被生成式AI工具未经授权使用,但绝大多数人缺乏必要的技术能力或控制手段来实现这一目标。 研究指出,最有效的保护方式是阻止AI“爬虫”访问艺术家的原创内容。这些爬虫负责从网络上抓取数据用于训练AI模型。然而,大多数艺术家既无法获取相关工具,即便有也难以使用。研究团队调查了超过200名视觉艺术家,并分析了1100个专业艺术家网站,发现超过四分之三的艺术家使用第三方平台(如Squarespace)建站,而这些平台通常不允许修改关键的robots.txt文件——该文件本可用于指示哪些AI爬虫可以或不可以访问网站内容。 尽管存在如Glaze这类工具,可将艺术作品“模糊化”以规避AI识别,但艺术家仍难以彻底阻止数据被采集。研究发现,近80%的艺术家曾主动采取措施防止作品被用于AI训练,其中三分之二使用过Glaze,60%减少了在线发布作品,51%仅分享低分辨率图像。96%的艺术家表示希望拥有能有效阻止AI爬虫的工具,但超过60%的人甚至不了解robots.txt这一基础防护手段。 尽管部分大型公司(如谷歌)声称尊重robots.txt规则,但实际执行情况不一。研究发现,只有少数爬虫(如TikTok旗下的Bytespider)明确不遵守该规则,而许多声称遵守的爬虫缺乏验证。此外,一些媒体网站在与AI公司达成数据授权协议后,主动移除了robots.txt中的AI屏蔽条款,反映出商业利益正影响内容保护机制。 新兴技术如Cloudflare推出的“阻止AI机器人”功能,目前仅有5.7%的用户启用,普及度仍低。研究人员呼吁平台提升透明度,公开被屏蔽的AI爬虫名单。 法律层面也充满不确定性。美国正面临关于AI训练数据是否构成“合理使用”的司法争议,欧盟《人工智能法案》则要求AI模型开发者必须获得版权方授权。研究指出,若未来法院认定AI训练属于“合理使用”,将使艺术家更依赖技术手段控制数据访问,从而进一步凸显现有工具的不足与普及难题。

Related Links

视觉艺术家困局:现有工具难挡AI爬虫侵袭 | 头条 | HyperAI超神经