Des chercheurs mettent en lumière les failles critiques des outils de protection de l'art contre l'IA, mettant les créateurs toujours en danger
Les outils de protection de l'art numérique restent inefficaces contre l'invasion des modèles d'IA, selon des chercheurs Deux des outils de protection de l'art les plus utilisés par les artistes numériques, Glaze et NightShade, présentent des faiblesses critiques, mettant en évidence des vulnerabilities importantes, selon une équipe de chercheurs internationaux. Ces outils visent à protéger les créateurs humains contre l'usage invasif des modèles de génération d'images par intelligence artificielle (IA), tels que Stable Diffusion. Malgré leur popularité – près de neuf millions de téléchargements cumulés –, ces outils ne peuvent pas fiablement empêcher les modèles d'IA de s'entraîner sur les œuvres des artistes. Glaze et NightShade fonctionnent en ajoutant des distorsions subtiles et invisibles, appelées "perturbations empoisonnées", aux images numériques. Ces distorsions sont conçues pour confondre les modèles d'IA pendant l'entraînement. Glaze adopte une approche passive, perturbant ainsi la capacité du modèle d'IA à extraire les caractéristiques stylistiques clés. NightShade, quant à lui, va plus loin en corrompant activement le processus d'apprentissage, causant au modèle d'IA des associations erronées entre le style de l'artiste et des concepts non liés. Cependant, les chercheurs ont développé une méthode, nommée LightShed, capable de contourner ces protections. LightShed est un processus en trois étapes : il identifie d'abord si une image a été modifiée avec des techniques d'empoisonnement connues. Ensuite, il apprend les caractéristiques des perturbations en utilisant des exemples publiquement disponibles de images empoisonnées. Finalement, il élimine l'empoisonnement pour restaurer l'image à sa forme originale, non protégée. Les tests expérimentaux de LightShed ont montré une détection de 99.98% des images protégées par NightShade et une efficacité notable dans le retrait des protections intégrées. "Cela montre que même en utilisant des outils comme NightShade, les artistes sont toujours exposés à un risque que leurs œuvres soient utilisées pour entraîner des modèles d'IA sans leur consentement," explique Hanna Foerster, première auteure de l'étude et membre du département de science informatique et technologie à l'Université de Cambridge, qui a réalisé ce travail pendant un stage à l'Université Technique de Darmstadt. Bien que LightShed ait dévoilé des failles sérieuses, les chercheurs insistent sur le fait qu'il n'a pas été conçu comme une attaque contre ces outils, mais plutôt comme un appel pressant à l'action pour créer des outils plus robustes et adaptatifs. "Nous voyons cela comme une occasion de coévoluer les défenses," indique le co-auteur, le Professeur Ahmad-Reza Sadeghi de l'Université Technique de Darmstadt. "Notre objectif est de collaborer avec d'autres scientifiques dans ce domaine et de soutenir la communauté artistique dans le développement d'outils de protection capables de résister à des adversaires avancés." Le paysage de l'IA et de la créativité numérique évolue rapidement. Par exemple, en mars dernier, OpenAI a lancé un modèle d'image pour ChatGPT capable de produire immédiatement des œuvres dans le style du studio d'animation japonais Studio Ghibli. Cette avancée a engendré des discussions virales et des débats juridiques intenses concernant le droit d'auteur des images, où des analystes légistes ont souligné que Studio Ghibli serait limité quant à ses moyens de riposte, car le droit d'auteur protège des expressions spécifiques plutôt que des 'styles' artistiques en particulier. Suite à ces débats, OpenAI a annoncé des mesures pour bloquer certaines demandes d'utilisateurs visant à générer des images dans le style d'artistes vivants. Cependant, les questions relatives à l'IA générative et au droit d'auteur demeurent actuelles. Getty Images, une agence photographique mondiale, accuse la société d'IA londonienne Stability AI d'avoir entraîné son modèle de génération d'images sur une vaste archive de photos protégées par le droit d'auteur. Stability AI rejette cette accusation, affirmant que le cas représente une "menace manifeste" pour l'industrie de l'IA générative. Plus récemment, Disney et Universal ont intenté une action en justice contre l'entreprise d'IA Midjourney, alléguant que son générateur d'images constitue une "source inépuisable de plagiat." Ces controverses illustrent la complexité croissante des enjeux juridiques liés à l'IA générative et au droit d'auteur. Hanna Foerster, qui est également membre de Darwin College à Cambridge, espère que son travail et celui de ses collègues aideront à mettre en lumière l'urgence de développer des stratégies de protection plus résilientes et axées sur les artistes. "Nous devons informer les créatifs qu'ils sont encore exposés à des risques et collaborer avec d'autres pour élaborer des outils de protection de l'avenir plus performants," conclut-elle. Évaluation par les professionnels de l'industrie et profil de l'entreprise Les chercheurs derrière LightShed mettent en garde contre une trop grande confiance dans les outils existants de protection de l'art numérique. Leur découverte suggère que la communauté scientifique et technologique doit se mobiliser pour proposer des solutions plus sûres et adaptables aux évolutions rapides de l'IA. L'industrie de l'IA et les artistes nécessitent un dialogue constructif et une collaboration pour élaborer des cadres juridiques et technologiques efficaces. Le 34e Symposium USENIX Security, qui aura lieu en août, servira de tribune pour présenter ces résultats, permettant une large diffusion et une prise de conscience au sein de la communauté scientifique. Des équipes interdisciplinaires de chercheurs, comme celle de l'Université de Cambridge, contribuent activement à ce débat, offrant des perspectives critiques et constructives pour l'amélioration des outils de protection de l'art. L'objectif final est de créer un écosystème où les artistes puissent exercer leur créativité sans craindre les exploitations non consensuelles de leurs œuvres, tout en favorisant l'innovation en IA.