HyperAI
Back to Headlines

Meta poursuit Crush AI et bloque apps de nu

il y a un mois

Meta a intenté une action en justice contre la société Joy Timeline HK, basée à Hong Kong, pour avoir diffusé des publicités pour des applications d'intelligence artificielle (IA) permettant de « déshabiller » des personnes sans leur consentement sur ses plateformes sociales, notamment Facebook, Messenger, Instagram et Threads. Cette démarche juridique intervient après que CBS News ait découvert des centaines de ces publicités sur les plateformes de Meta lors d'une enquête publiée la semaine dernière. L'enquête de CBS a révélé que Joy Timeline HK avait multiplié les tentatives pour contourner le processus de vérification des publicités de Meta, en créant des dizaines de comptes d'annonceurs et en changeant fréquemment de noms de domaine. Selon Alexios Mantzarlis, l'auteur de la newsletter Faked Up, Crush AI, la société derrière ces applications, a diffusé plus de 8 000 publicités pour ses services de « déshabilleur IA » sur les plateformes de Meta au cours des deux premières semaines de 2025. Mantzarlis a également signalé plusieurs de ces sites à Meta, soulignant que 90 % du trafic de ces sites provenait soit de Facebook, soit d'Instagram. Meta a indiqué dans un communiqué que cette action judiciaire témoigne de la gravité avec laquelle elle prend ce type d'abus et de son engagement à protéger sa communauté. La société a affirmé qu'elle continuerait à prendre les mesures nécessaires, y compris des actions judiciaires, contre ceux qui abusent de ses plateformes. En réponse à l'enquête de CBS, Meta a déclaré avoir supprimé de nombreuses publicités, effacé les comptes responsables et bloqué les URL associées aux applications de deepfakes nus. Cependant, la société reconnaît que la tâche devient de plus en plus difficile car ces applications trouvent de nouvelles stratégies pour échapper à la détection. La diffusion de publicités pour des applications de deepfakes nus ne se limite pas aux plateformes de Meta. D'autres entreprises de médias sociaux comme X (anciennement Twitter) et Reddit ont également constaté une augmentation significative des liens vers ces applications en 2024. Sur YouTube, des millions d'utilisateurs ont été exposés à des publicités pour des applications similaires. Face à ce problème croissant, Meta et TikTok ont interdit les recherches par mots-clés pour ces applications, mais les retirer complètement de leurs plateformes reste un défi majeur. Pour renforcer sa lutte contre ces publicités, Meta a développé de nouvelles technologies capables d'identifier spécifiquement les publicités pour des services de nudification ou de déshabillage par IA, même si elles ne contiennent pas de nudité explicite. La société utilise désormais des technologies de correspondance pour détecter et supprimer plus rapidement les publicités copiées. Depuis le début de 2025, Meta a perturbé quatre réseaux distincts promouvant ces services. Elle a également élargi la liste des termes, expressions et emojis qui sont repérés par ses systèmes. En dehors de ses applications, Meta a commencé à partager des informations sur les applications de nudification IA via le programme Lantern de la Tech Coalition, une initiative collective visant à prévenir l'exploitation sexuelle des enfants en ligne. Depuis mars, Meta a fourni plus de 3 800 URL uniques à ce réseau. Sur le plan législatif, la société s'est engagée à soutenir des lois qui permettent aux parents de superviser et d'approuver les téléchargements d'applications par leurs adolescents. Meta a déjà soutenu le Take It Down Act aux États-Unis et travaille désormais avec les législateurs pour sa mise en œuvre. Les applications de nudification par IA, comme celles de Crush AI, sont principalement utilisées contre des femmes et des célébrités féminines, contribuant à une augmentation des cas de chantage et de « sextorsion ». Elles sont également de plus en plus accessibles aux mineurs, ce qui pose des risques graves. San Francisco a lancé sa propre action en justice en août 2024 contre 16 des sites web les plus visités proposant ces services de deepfake de nudification. Les experts de l'industrie et les chercheurs s'accordent à dire que la régulation de ces applications est un enjeu crucial pour la sécurité des utilisateurs et la protection des droits à l'image. L'action en justice de Meta et les nouvelles mesures techniques et législatives qu'elle met en place reflètent un effort concerté pour combattre un phénomène nuisible et potentiellement dangereux. Cependant, la complexité de l'évasion des politiques de modération par ces acteurs malveillants montre que la bataille contre la diffusion de contenu sexuellement explicite non consensuel est loin d'être gagnée. Meta et d'autres plateformes sociales continuent à affiner leurs outils et à collaborer avec des institutions pour mieux protéger leurs utilisateurs, tout en appelant à une législation plus stricte pour contrôler l'utilisation de ces applications.

Related Links