New York propose une loi obligatoire pour étiqueter le contenu d’actualités généré par l’IA
Un nouveau projet de loi introduit à l’Assemblée législative de New York exige que les contenus d’actualité générés par l’intelligence artificielle soient clairement signalés et que tout matériel produit avec ces outils fasse l’objet d’une revue humaine avant publication. Introduit lundi par la sénatrice Patricia Fahy (D-Albany) et l’assembléenne Nily Rozic (D-NYC), ce texte, baptisé The New York Fundamental Artificial Intelligence Requirements in News Act (NY FAIR News Act), vise à protéger la qualité du journalisme et les droits des professionnels du secteur. « Au cœur de l’industrie journalistique, New York a un intérêt majeur à préserver le journalisme et à protéger les travailleurs qui le produisent », a déclaré Rozic lors de l’annonce du projet. Le projet impose aux médias de placer des mentions d’information claires sur tout contenu « principalement composé, rédigé ou créé à l’aide d’intelligence artificielle générative ». Cette exigence fait suite à un débat intense sur la transparence, certains craignant que ces mentions découragent les lecteurs, même lorsque l’IA n’est utilisée qu’à titre d’outil d’assistance. Toutefois, le texte prévoit une exception : les contenus protégés par le droit d’auteur ne sont pas soumis à l’obligation de mention, conformément à la position de l’Office américain du droit d’auteur, qui considère que les œuvres entièrement générées par l’IA ne peuvent pas être protégées, sauf si elles montrent une contribution humaine significative. En outre, le projet exige que les organisations médiatiques informent leurs journalistes et professionnels du secteur de l’utilisation de l’IA dans leurs processus de création, ainsi que de la manière dont elle est appliquée. Toute publication utilisant l’IA doit être validée par un employé disposant d’un pouvoir éditorial, et ce pour tous les formats — textes, audio, images, vidéos. Le texte inclut également des dispositions visant à protéger les informations confidentielles, notamment les sources, en empêchant leur accès par des systèmes d’IA. Les législateurs invoquent deux raisons principales : la possibilité que le contenu généré par l’IA soit faux ou trompeur, et le risque de plagiat, car ces systèmes peuvent reproduire du contenu original sans autorisation ni attribution. « Peut-être l’un des secteurs les plus exposés à l’IA est le journalisme, et c’est pourquoi la confiance du public dans les informations fiables est en jeu », a souligné la sénatrice Fahy, citant une étude selon laquelle plus de 76 % des Américains s’inquiètent de l’usage de l’IA pour voler ou reproduire des articles de presse. Le projet a reçu un large soutien de syndicats du secteur, dont WGA-East, SAG-AFTRA et le DGA. Jennifer Sheehan, porte-parole du NewsGuild de New York, a confirmé que les syndicats collaborent depuis plusieurs mois pour faire avancer ce texte. Le projet inclut également des protections pour les travailleurs : il interdit les licenciements, réductions de salaire ou de prestations liés à l’adoption de l’IA, une disposition déjà incluse dans certains contrats collectifs. En décembre, le NewsGuild avait lancé une campagne nationale, « News Not Slop », pour imposer des limites à l’usage de l’IA dans les rédactions. À New York, le syndicat de Business Insider a même organisé une manifestation contre un pilote éditorial utilisant des articles générés par l’IA avec une signature « par l’IA », soulignant que cette pratique menace la crédibilité du journalisme et la sécurité de l’emploi. Ce projet reflète une volonté croissante de réguler l’IA dans les médias, en équilibrant innovation et protection des journalistes, tout en préservant la confiance du public.
