Parents exhortent Hochul à signer la loi pionnière sur la sécurité de l’IA, dénonçant la pression des géants technologiques
Plus de 150 parents ont envoyé une lettre vendredi au gouverneur de New York, Kathy Hochul, l’incitant à signer sans modification la loi sur la sécurité de l’intelligence artificielle, connue sous le nom de RAISE Act. Ce projet de loi, qui a été adopté par le Sénat et l’Assemblée de l’État de New York en juin, impose aux développeurs de grands modèles d’IA — comme Meta, OpenAI, Deepseek ou Google — de mettre en place des plans de sécurité et de respecter des règles de transparence, notamment en signalant les incidents de sécurité à grande échelle. Cependant, selon des informations récentes, Hochul aurait proposé une refonte presque totale de ce texte, le rendant plus favorable aux entreprises technologiques, une évolution qui rappelle les modifications apportées à la loi californienne SB 53 après des pressions de la part des géants de l’IA. Ces derniers, loin d’être favorables à la régulation, s’opposent vigoureusement à la RAISE Act. L’AI Alliance, regroupant des acteurs comme Meta, IBM, Intel, Oracle, Uber, AMD, Databricks et Hugging Face, a déclaré en juin qu’elle était « profondément préoccupée » par le projet, le jugeant « inviable ». De son côté, Leading the Future, une super PAC pro-IA financée par Perplexity AI, Andreessen Horowitz (a16z), Greg Brockman, président d’OpenAI, et Joe Lonsdale, co-fondateur de Palantir, a lancé une campagne de publicité ciblant Alex Bores, l’assembléiste qui a co-signé le projet. La lettre, rédigée conjointement par les organisations ParentsTogether Action et le Tech Oversight Project, souligne que certains signataires ont perdu des enfants en raison des dangers liés aux chatbots d’IA et aux réseaux sociaux. Elle qualifie la version actuelle de la RAISE Act de « garde-fous minimaux » qu’il est essentiel de faire adopter. Le texte, tel qu’adopté par le législatif étatique, ne s’applique qu’aux plus grands développeurs, ceux qui dépensent des centaines de millions de dollars par an, et exige d’eux de déclarer les incidents de sécurité majeurs au procureur général et de publier leurs plans de sécurité. En outre, les entreprises seraient interdites de lancer un modèle d’IA de pointe s’il comportait un risque « raisonnable » de dommages critiques — définis comme la mort ou des blessures graves de 100 personnes ou plus, ou des pertes économiques dépassant 1 milliard de dollars liées à la création d’armes chimiques, biologiques, radiologiques ou nucléaires. Le texte interdit également la mise en œuvre d’un modèle d’IA agissant sans intervention humaine significative si ses actions, si commises par un humain, constitueraient des infractions criminelles. « L’opposition puissante de Big Tech à ces protections élémentaires nous semble familière, car nous avons déjà vu ce schéma de déni et d’évitement », affirme la lettre. Elle rappelle que les dégâts causés aux jeunes — notamment en matière de santé mentale, d’équilibre émotionnel et de capacité à fonctionner à l’école — ont été largement documentés depuis que les plus grandes entreprises technologiques ont mis en place des plateformes sociales algorithmiques sans transparence, sans surveillance ni responsabilité.
