HyperAIHyperAI

Command Palette

Search for a command to run...

Italie alerte sur les risques des deepfakes générés par Grok et autres IA

L’autorité italienne de protection des données a mis en garde, jeudi, les utilisateurs et les fournisseurs d’outils d’intelligence artificielle, dont le chatbot Grok d’Elon Musk, concernant le risque de création de contenus de type deepfake à partir de matériaux réels, sans le consentement des personnes concernées. L’instance souligne les dangers potentiels liés à l’utilisation non autorisée d’images ou de vidéos authentiques pour produire des contenus falsifiés, pouvant nuire à la réputation, à la vie privée ou à la sécurité des individus. Cette mise en garde intervient alors que les technologies d’IA générative connaissent une diffusion croissante, soulevant des préoccupations croissantes sur la véracité des contenus et la protection des droits fondamentaux. L’autorité rappelle que toute utilisation de données personnelles, y compris celles impliquant des images ou des vidéos, doit respecter les principes du règlement général sur la protection des données (RGPD), notamment le consentement éclairé et la transparence. Elle appelle les développeurs d’IA à renforcer les mécanismes de contrôle, à implémenter des filtres de détection des deepfakes et à garantir que leurs systèmes ne puissent pas être exploités pour produire des contenus trompeurs ou nuisibles. Le message s’adresse également aux utilisateurs, les invitant à exercer une vigilance accrue face aux contenus générés par l’IA, en particulier lorsqu’ils sont diffusés sur les réseaux sociaux ou dans des contextes publics. Cette alerte s’inscrit dans une démarche plus large de régulation des technologies d’IA en Europe, où les autorités cherchent à équilibrer innovation et protection des droits individuels.

Liens associés