HyperAIHyperAI
Back to Headlines

Artists Struggle to Shield Work from AI Scrapers Despite Available Tools

il y a 3 jours

Malgré la disponibilité d’outils techniques, les artistes visuels peinent à protéger leurs œuvres contre l’exploitation non consensuelle par les modèles d’intelligence artificielle, révèle une étude menée par des chercheurs de l’Université de Californie à San Diego et de l’Université de Chicago. Présentée à la conférence 2025 Internet Measurement Conference, cette recherche, publiée sur arXiv, met en lumière un fossé entre la volonté des créateurs de contrôler l’utilisation de leur travail et leur accès réel à des moyens efficaces de le faire. Les artistes souhaitent non seulement empêcher l’accès à leurs œuvres, mais aussi contrôler leur utilisation par les IA génératives — une demande qui, bien que soutenue par le droit d’auteur, reste difficile à exprimer et à faire respecter sur internet. En réponse, des solutions ad hoc ont émergé, comme le fichier robots.txt, qui permet de restreindre l’accès des « crawlers » aux pages d’un site. Toutefois, ces outils ne sont pas obligatoires, et leur efficacité varie selon les acteurs. L’étude a interrogé plus de 200 artistes visuels, dont 80 % ont tenté de limiter l’utilisation de leurs œuvres par les IA, 60 % ont réduit leur partage en ligne, et 51 % ne publient que des images à faible résolution. Près de 96 % souhaitent disposer d’un outil capable d’empêcher les crawlers d’IA de collecter leurs données. Pourtant, plus de 60 % ignorent l’existence de robots.txt, un outil fondamental. Sur 1 100 sites d’artistes analysés, plus des trois quarts utilisent des plateformes tierces (comme Squarespace ou Wix), qui ne permettent pas de modifier ce fichier. Seul Squarespace propose une interface simple pour bloquer les bots d’IA, mais seulement 17 % des artistes l’utilisent — souvent par ignorance. Les résultats montrent que les grands groupes (comme Google, Microsoft ou OpenAI) respectent généralement robots.txt dans leurs pratiques, mais que de nombreux crawlers d’assistants IA, notamment ceux de TikTok via Bytespider, ne le font pas. De plus, certaines grandes publications, comme Vox Media ou The Atlantic, ont retiré leurs restrictions après avoir conclu des accords de licence avec des entreprises d’IA, ce qui accroît le risque de diffusion non contrôlée. Une solution récente, lancée par Cloudflare, permet de bloquer les bots d’IA, mais son utilisation reste marginale (5,7 % des sites utilisateurs). Les chercheurs soulignent que la transparence des fournisseurs est essentielle — notamment pour connaître la liste des bots bloqués. Sur le plan juridique, les incertitudes persistent. Aux États-Unis, les litiges portent sur le droit de « fair use » pour les modèles entraînés sur des données publiées. En Europe, le nouvel AI Act exige l’autorisation des titulaires de droits. Ces évolutions législatives pourraient renforcer la demande pour des contrôles techniques, surtout si les tribunaux reconnaissent un droit de défense plus faible. En somme, malgré des outils existants, la protection effective des œuvres d’art contre les crawlers d’IA reste compromise par un manque de compétences techniques, de contrôle sur les plateformes, et de transparence des outils. Les artistes, souvent désarmés face à des systèmes complexes, ont besoin d’outils plus accessibles, plus visibles et mieux intégrés à leurs environnements numériques.

Related Links

Artists Struggle to Shield Work from AI Scrapers Despite Available Tools | Gros titres | HyperAI