HyperAIHyperAI

Command Palette

Search for a command to run...

L’acte de sécurité de l’IA de New York affaibli : les universités dans la ligne de mire d’une campagne secrète

Le projet de loi emblématique sur la sécurité de l’intelligence artificielle de New York, connu sous le nom de RAISE Act (Responsible AI Safety and Education Act), a été considérablement affaibli après une intense campagne de lobbying menée par un consortium regroupant des géants de la tech et des universités. Bien que le texte initial, adopté par les deux chambres de l’Assemblée de l’État de New York en juin, imposait aux entreprises développant des modèles d’intelligence artificielle de grande envergure — comme OpenAI, Anthropic, Meta, Google ou DeepSeek — de présenter des plans de sécurité et de signaler tout incident majeur à l’attorney général, la version signée par la gouverneure Kathy Hochul diffère fortement. Cette dernière a élargi les délais de déclaration, réduit les amendes et supprimé une disposition clé : celle qui interdisait le déploiement d’un modèle de pointe s’il présentait un risque « raisonnable » de dommages critiques, définis comme la mort ou des blessures graves de 100 personnes ou plus, ou des pertes économiques dépassant 1 milliard de dollars liées à la création d’armes chimiques, biologiques, radiologiques ou nucléaires. Une campagne publicitaire menée par l’AI Alliance, un groupe composé de plus de 150 entreprises et institutions académiques, a joué un rôle central dans cette transformation. Entre 17 000 et 25 000 dollars ont été dépensés en une dizaine de jours pour diffuser des annonces sur Meta’s Ad Library, atteignant plus de deux millions de personnes. Les messages, intitulés « L’acte RAISE freinera la croissance de l’emploi », accusaient la loi de ralentir l’écosystème technologique de New York, qui soutient 400 000 emplois. Parmi les membres de l’AI Alliance figurent Meta, IBM, Oracle, Uber, Hugging Face, mais aussi des universités prestigieuses comme New York University, Cornell, Dartmouth, Carnegie Mellon, Northeastern, l’Université de Notre Dame, ainsi que les écoles d’ingénierie de Penn et Yale. Malgré leur implication dans cette campagne, aucune de ces institutions n’a répondu aux demandes de commentaires de The Verge, sauf Northeastern, qui n’a fourni aucune information. Ces liens ne sont pas anodins : plusieurs établissements entretiennent des partenariats étroits avec des entreprises d’IA. Par exemple, Anthropic a offert l’accès à son modèle Claude à 50 000 étudiants, enseignants et personnels de Northeastern, tandis qu’OpenAI a financé une initiative sur l’éthique du journalisme à NYU. Des professeurs de Carnegie Mellon siégent au conseil d’OpenAI, et l’entreprise a soutenu des programmes à l’université. L’AI Alliance, bien qu’elle se présente comme un organisme non lucratif visant à promouvoir une IA « ouverte, fiable et bénéfique », a déjà opposé une résistance à d’autres initiatives de régulation, comme la loi californienne SB 1047 ou l’ordonnance présidentielle sur l’IA. Elle prétend œuvrer pour une collaboration transparente, notamment via des groupes de travail et la création de jeux de données « fiables ». Toutefois, son influence dans le débat sur la sécurité de l’IA soulève des questions sur l’objectivité de ses positions, particulièrement lorsqu’elle s’oppose à des textes visant à protéger le public. Par ailleurs, d’autres acteurs, comme le super PAC Leading the Future (financé par Perplexity AI, Andreessen Horowitz, Joe Lonsdale et Greg Brockman d’OpenAI), ont également dépensé pour influencer le vote, ciblant notamment l’assembléen Alex Bores, co-sponsor du projet. Contrairement à ces groupes à but lucratif, l’AI Alliance se présente comme un acteur du dialogue éthique, mais son rôle dans la défausse d’un texte de sécurité fondamental suscite des inquiétudes quant à la véritable neutralité de ses engagements.

Liens associés

L’acte de sécurité de l’IA de New York affaibli : les universités dans la ligne de mire d’une campagne secrète | Articles tendance | HyperAI