Elon Musk tease un nouveau système de marquage des images modifiées sur X, mais les détails manquent toujours
Elon Musk a lancé une énigme sur X (ex-Twitter) en teasant un nouveau système de marquage des images modifiées, annonçant un avertissement pour « visuels modifiés ». Cette information provient d’un post cryptique de Musk, republié depuis le compte anonyme DogeDesigner, souvent utilisé comme porte-parole pour annoncer des fonctionnalités inédites sur la plateforme. Le compte affirme que la nouvelle fonctionnalité rendra « plus difficile pour les médias traditionnels de diffuser des vidéos ou images trompeuses », et qu’elle est « nouvelle pour X ». Toutefois, aucune précision n’a été fournie sur le fonctionnement du système, ni sur les critères utilisés pour détecter une manipulation. À l’origine, Twitter avait déjà mis en place une politique de marquage des contenus manipulés, incluant des modifications comme le recadrage, le ralentissement, le doublage audio ou la modification de sous-titres. Cette approche visait à préserver le contenu tout en avertissant les utilisateurs, sans pour autant le supprimer. Depuis la reprise par Musk et le changement de nom en X, cette politique semble peu appliquée, comme le montre le récent scandale des deepfakes non consensuels. De plus, même des institutions comme la Maison-Blanche partagent désormais des images altérées, soulignant les limites actuelles de la modération. Le défi réside dans la distinction entre une image réellement générée par une IA et une photo modifiée avec des outils classiques comme Photoshop. En 2024, Meta a fait face à des erreurs similaires en étiquetant des photos réelles comme « créées avec IA », en raison de l’usage courant d’outils d’IA intégrés dans les logiciels de création (comme Adobe Generative Fill ou les fonctionnalités de correction d’Apple). Ces outils, bien qu’utilisés pour des retouches légères, peuvent modifier les métadonnées ou la structure d’une image, déclenchant des alertes erronées. Face à ces enjeux, des standards comme C2PA (Coalition for Content Provenance and Authenticity) ont vu le jour pour garantir la traçabilité des contenus numériques. D’autres initiatives, comme CAI ou Project Origin, visent à intégrer des métadonnées de provenance tamper-evident. Des géants comme Microsoft, Adobe, Sony, OpenAI, le BBC ou Intel font partie du comité directeur de C2PA, mais X n’apparaît pas parmi les membres. Malgré des demandes, la plateforme n’a pas répondu. Il reste donc incertain si X adoptera un cadre technique reconnu, ou si son système repose sur une détection heuristique ou subjective. Sans transparence sur les critères, le risque est élevé de marquages erronés ou de censure sélective, surtout dans un environnement polarisé comme X. L’absence d’un processus de recours clair, au-delà des Notes Communautaires, renforce les inquiétudes. Alors que TikTok, Spotify ou Google Photos progressent dans l’étiquetage des contenus générés par IA, X reste dans l’ombre, laissant planer le doute sur la crédibilité de sa nouvelle fonctionnalité.
