YouTube lance un outil anti-faux pour repérer les deepfakes de créateurs
YouTube lance une nouvelle fonction de détection de ressemblance visuelle destinée à aider les créateurs à repérer les contenus utilisant illégalement leur image, notamment des vidéos générées par l’intelligence artificielle. Depuis aujourd’hui, les créateurs inscrits au Programme Partenaire YouTube ont accès à cette fonction, disponible dans l’onglet « Détection de contenu » de YouTube Studio. Après vérification de leur identité, ils peuvent consulter les vidéos signalées comme potentiellement contenant leur visage non autorisé, y compris des versions synthétiques créées par IA. Si un contenu semble être une imitation non consentie, les créateurs peuvent alors soumettre une demande de retrait. Cette fonction, similaire au système Content ID utilisé pour protéger les droits d’auteur, est actuellement en phase de développement et peut parfois signaler des vidéos réelles de créateurs, même si elles ne sont pas altérées ou générées par IA. La première vague de créateurs concernés a été informée par courriel ce matin, et le déploiement s’étendra progressivement à d’autres utilisateurs au cours des prochains mois. Cette initiative fait suite à une annonce initiale de YouTube l’année dernière, suivie d’un test pilote en décembre avec des talents représentés par l’agence Creative Artists Agency (CAA). À l’époque, YouTube soulignait que cette technologie expérimentale permettrait à des personnalités influentes de surveiller à grande échelle l’utilisation non autorisée de leur image, y compris leur visage, dans des contenus générés par IA. YouTube et Google, bien qu’ils développent activement des outils d’édition et de génération vidéo par IA, prennent également des mesures pour contrôler les abus liés à ces technologies. En mars dernier, YouTube a imposé aux créateurs l’obligation de signaler tout contenu généré ou modifié par IA, notamment dans les vidéos musicales. Une politique stricte a également été annoncée concernant la musique générée par IA qui imite de manière réaliste la voix d’un artiste, comme celle d’un chanteur ou d’un rappeur. Bien que cette fonction de détection de ressemblance soit un pas important vers la protection des identités numériques, YouTube précise qu’elle ne garantit pas le retrait automatique des contenus signalés. Le processus de vérification et de décision reste manuel, ce qui signifie que les demandes doivent être examinées par l’équipe de modération. Cette limitation souligne que, malgré les progrès technologiques, la gestion des contenus générés par IA reste un défi complexe, notamment en matière de précision, de contexte et de respect des droits. En somme, cette nouvelle fonction s’inscrit dans une stratégie plus large de YouTube pour encadrer l’usage de l’IA sur sa plateforme, en équilibrant innovation et responsabilité. Elle renforce le pouvoir des créateurs face aux deepfakes et aux contenus manipulés, tout en mettant en lumière les limites actuelles des outils de détection. À mesure que les technologies évoluent, les plateformes comme YouTube devront continuer à adapter leurs mécanismes de modération pour protéger les utilisateurs tout en favorisant l’innovation.
