HyperAIHyperAI

Command Palette

Search for a command to run...

La réalité perd la guerre contre les deepfakes, et les étiquettes ne suffisent plus

Nous sommes aujourd’hui face à une crise profonde de la réalité, où les images et vidéos générées par l’intelligence artificielle, ultra-réalistes et souvent manipulées, envahissent à grande échelle les réseaux sociaux sans aucune considération pour la responsabilité, les normes ou même la décence. Dans ce contexte, la question centrale se pose : peut-on étiqueter les contenus pour restaurer une compréhension partagée de la réalité ? La réponse, selon Jess Weatherbed, journaliste au Verge, est clairement non. L’initiative C2PA — Content Credentials — présentée comme la solution phare, s’est révélée inefficace, voire inutile, dans la pratique. C2PA, un standard de métadonnées lancé par Adobe et soutenu par des géants comme Meta, Microsoft, OpenAI, Google et Qualcomm, était censé suivre chaque image ou vidéo depuis sa création, en enregistrant son origine, les outils utilisés, et tout traitement subi. L’idée était qu’un simple clic sur une photo sur Instagram ou X révélerait si elle était réelle ou générée par IA. Mais en réalité, ce système est fragile : les métadonnées peuvent être facilement supprimées, altérées ou ignorées par les plateformes. OpenAI, membre du comité, a même reconnu qu’il est « extrêmement facile » de les éliminer, y compris accidentellement lors du partage. Le problème va plus loin. C2PA n’a jamais été conçu pour détecter les deepfakes ou les contenus manipulés à grande échelle. Il est plutôt un outil de traçabilité pour les créateurs, pas un système de vérification de vérité. Sa mise en œuvre reste hésitante : Google l’utilise dans ses téléphones Pixel, mais pas dans Android en général. Apple, bien que mentionné dans des discussions internes, n’a fait aucune déclaration officielle. Les fabricants comme Sony, Nikon ou Leica ont intégré C2PA dans certains appareils récents, mais pas dans les modèles existants — une limitation majeure, puisque la majorité des photographes n’achètent pas un nouveau matériel chaque année. Sur les plateformes, l’adoption est encore plus chaotique. Instagram a tenté de mettre en place des étiquettes « fait avec IA », mais a rapidement reculé, faute de mécanismes clairs pour les interpréter. YouTube, malgré sa participation à C2PA et son système SynthID, n’affiche pas de manière cohérente les étiquettes, et ne donne jamais de justification claire quand elles manquent. TikTok, quant à lui, les affiche de façon sporadique. Et X (anciennement Twitter), ancien fondateur du projet, a complètement disparu du paysage après l’acquisition par Elon Musk. Le plus inquiétant, c’est que les acteurs les plus puissants du système — les plateformes — semblent ne pas vouloir vraiment résoudre le problème. Pourquoi ? Parce que leur modèle économique repose sur la quantité et la rapidité de la diffusion du contenu. Marquer les contenus comme générés par IA risque de dévaluer la créativité, de susciter la colère des créateurs, et surtout, de ralentir l’engagement des utilisateurs. Comme le souligne Jess Weatherbed, « les plateformes sont profondément investies dans la production d’IA, et elles ne veulent pas se contredire en la désignant comme suspecte. » Même les efforts de régulation, comme l’acte britannique de sécurité en ligne, ne suffiront pas sans contraintes réelles. L’industrie a jusqu’ici agi par altruisme, en lançant des initiatives sans véritable engagement. Le système C2PA a échoué non pas par manque d’ambition, mais parce qu’il a été utilisé comme un badge de bonne conscience, sans les moyens de fonctionner à l’échelle. En définitive, la réalité est en train de s’effriter. Adam Mosseri, directeur d’Instagram, l’a reconnu publiquement : « Nous ne pouvons plus supposer que les photos ou vidéos sont des captures fidèles des moments. » Ce n’est plus une question de technologie, mais de confiance. Et cette confiance, elle ne se rétablit pas par des étiquettes. Elle exige une réforme structurelle, une régulation stricte, et une volonté collective de préserver le vrai. Sans cela, le monde entier vivra dans une méfiance généralisée — et la réalité, perdue.

Liens associés

La réalité perd la guerre contre les deepfakes, et les étiquettes ne suffisent plus | Articles tendance | HyperAI