Un procès contre ClothOff révèle les failles du droit face aux deepfakes pornographiques
Depuis plus de deux ans, une application nommée ClothOff terrorise des jeunes femmes en ligne, illustrant avec brutalité les difficultés à combattre la pornographie générée par l’intelligence artificielle sans consentement. Bien que retirée des deux grands magasins d’applications et interdite sur la plupart des plateformes sociales, l’outil reste accessible via le web et un bot Telegram. En octobre, un cabinet de droit de l’Université Yale a déposé une poursuite visant à faire fermer définitivement ClothOff, obligeant ses auteurs à supprimer toutes les images et à cesser toute activité. Pourtant, identifier les responsables s’est révélé extrêmement compliqué. « Elle est enregistrée aux îles Vierges britanniques, explique le professeur John Langford, co-avocat dans l’affaire, mais nous pensons qu’elle est exploitée par une fratrie basée en Biélorussie, peut-être même dans le cadre d’un réseau mondial. » Ce cas révèle les failles du système juridique face aux outils de génération de deepfakes. Bien que la production, la diffusion et le stockage de matériel pédopornographique soient illégaux partout, et soient systématiquement surveillés par les grands services cloud, les plateformes comme ClothOff ou Grok échappent à la régulation. Les utilisateurs individuels peuvent être poursuivis, mais les plateformes elles-mêmes restent difficiles à sanctionner. La plainte, disponible en ligne, décrit une jeune lycéenne du New Jersey, âgée de 14 ans au moment de la prise de ses photos originales, dont les images ont été altérées par ses camarades via ClothOff. Ces versions modifiées sont légalement qualifiées de matériel pédopornographique, mais les autorités locales ont refusé de poursuivre, invoquant des difficultés à récupérer des preuves sur les appareils des suspects. La procédure avance lentement. Depuis le dépôt de la plainte, Langford et son équipe ont dû tenter de notifier les défendeurs, une tâche complexe en raison de la nature internationale du réseau. Sans cette notification, aucune audience judiciaire ne peut avoir lieu. Pendant ce temps, les victimes restent sans recours concret. Le cas de Grok, le modèle d’IA d’Elon Musk, semble plus simple à traiter en apparence : l’entreprise est transparente, et les ressources financières pour les poursuites sont importantes. Mais Grok est un outil généraliste, ce qui complique considérablement la responsabilité légale. « ClothOff est conçu et vendu spécifiquement comme générateur de pornographie par deepfake », souligne Langford. « Quand on traite un système généraliste que les utilisateurs peuvent interroger pour tout, la question de la responsabilité devient beaucoup plus floue. » Malgré des lois américaines comme l’Take It Down Act, qui interdisent expressément la pornographie par deepfake, il reste difficile de tenir les plateformes pour responsables. Les lois exigent une preuve d’intention malveillante — par exemple, que Grok savait que son outil serait utilisé pour produire du contenu non consensuel. Sans preuve directe, la protection constitutionnelle de la liberté d’expression (Première Amendement) joue en faveur de l’entreprise. « Sur le plan constitutionnel, il est clair que le matériel pédopornographique n’est pas une expression protégée », affirme Langford. « Mais quand un système généraliste est utilisé pour cela, la ligne est floue. » La seule issue pourrait être de démontrer une négligence volontaire — comme les récentes révélations selon lesquelles Musk aurait ordonné de relâcher les contrôles de Grok. Mais ce serait une affaire juridique risquée, reposant sur une évaluation de la « faute » plutôt que sur une infraction claire. En revanche, des pays comme l’Indonésie, la Malaisie, le Royaume-Uni, l’Union européenne, la France, l’Irlande, l’Inde et le Brésil ont pris des mesures pour bloquer Grok, tandis que les États-Unis n’ont pas encore réagi officiellement. Ces investigations pourraient révéler des failles graves. « La question centrale n’est pas seulement si le contenu est illégal, mais ce que X savait, ce qu’il a fait ou n’a pas fait, et ce qu’il fait aujourd’hui », conclut Langford.
