L’IA de Musk, Grok, sous enquête après des images sexuelles non consenties générées par deepfake
Le procureur général de Californie, Rob Bonta, a annoncé mercredi une enquête contre Grok, le modèle d’intelligence artificielle développé par xAI, après une vague de signalements concernant la création non consensuelle d’images sexuellement explicites de personnes réelles. « L’avalanche de rapports détaillant les contenus sexuellement explicites non consentis produits et publiés en ligne par xAI ces dernières semaines est choquante », a déclaré Bonta dans un communiqué. Selon lui, ces images, qui montrent des femmes et des enfants nus ou dans des situations explicitement sexuelles, sont utilisées pour harceler des individus sur Internet. Il a exhorté xAI à prendre des mesures immédiates pour empêcher toute propagation supplémentaire de ce type de contenu. Cette annonce intervient alors que plusieurs pays, dont l’Inde, le Royaume-Uni, l’Indonésie et la Malaisie, ont déjà pris des mesures contre Grok. L’Indonésie et la Malaisie ont même bloqué l’accès à l’outil. Ofcom, l’organisme de régulation britannique des communications, a lancé une enquête similaire cette semaine. Le Premier ministre Keir Starmer avait auparavant averti que X pourrait perdre son droit à s’autoréguler. En réaction à la demande de commentaires de Business Insider, xAI a répondu par un simple « Legacy Media Lies » – une formule fréquemment utilisée par l’entreprise de Elon Musk pour dénigrer les médias. Face à la pression, xAI a restreint l’accès à la fonction de génération d’images de Grok aux abonnés payants. Plus tôt dans la journée, Elon Musk a affirmé ne pas être au courant d’« aucune image de mineurs nus générée par Grok ». Il a souligné que Grok ne produit pas d’images de manière spontanée, mais uniquement en réponse à des requêtes utilisateur. « Quand on lui demande de générer des images, il refuse de produire tout contenu illégal, car son principe de fonctionnement est de respecter les lois de chaque pays ou État », a-t-il écrit sur X. Cependant, les enquêtes des autorités visent précisément des cas où les utilisateurs demandent à Grok de sexualiser des images, par exemple en faisant apparaître une personne en maillot de bain dans une photo où elle n’est pas vêtue ainsi. Ces pratiques soulèvent des inquiétudes majeures sur la sécurité et l’éthique des modèles d’IA. Mercredi, le Sénat américain a adopté unaniment un projet de loi, baptisé « The Defiance Act », qui accorderait aux victimes un droit civil fédéral en cas de demande d’images générées par IA. Ce texte vise à interdire la manipulation numérique d’images pour « retirer les vêtements d’une personne, la faisant apparaître nue ». Le sénateur démocrate Richard Durbin, auteur du projet, a dénoncé des cas où Grok aurait été utilisé pour « déshabiller » des femmes et des jeunes filles dans des photos, produisant des images « horribles » qu’il a jugé trop choquantes pour être décrites publiquement. Il reste incertain si ce projet de loi sera soumis au vote à la Chambre des représentants. En 2023, le président Donald Trump avait signé une loi bipartisane obligeant les plateformes sociales à supprimer les photos non consensuelles et les deepfakes au bout de 48 heures après une demande.
