HyperAIHyperAI

Command Palette

Search for a command to run...

Californie : Scott Wiener lance une nouvelle offensive pour contraindre Big Tech à révéler les dangers de l’IA

Scott Wiener, sénateur de Californie, poursuit son combat pour imposer une plus grande transparence et responsabilité aux géants de la tech en matière de sécurité de l’intelligence artificielle. Après le rejet en 2024 de son projet de loi SB 1047, qui aurait rendu les entreprises responsables des dommages causés par leurs systèmes d’IA, Wiener revient avec une nouvelle initiative, le SB 53, actuellement en attente de signature ou de veto du gouverneur Gavin Newsom. Contrairement à son prédécesseur, ce texte suscite un soutien inédit de la part d’acteurs clés du secteur : Anthropic l’a officiellement appuyé, et Meta l’a qualifié de « pas dans la bonne direction », bien qu’avec des réserves. Des experts comme Dean Ball, ancien conseiller en politique AI à la Maison Blanche, estiment que le SB 53 représente une victoire pour les voix raisonnables. Le SB 53 impose aux laboratoires d’IA les plus puissants — ceux dont le chiffre d’affaires dépasse 500 millions de dollars — de publier des rapports de sécurité détaillés sur leurs modèles les plus avancés. Ces rapports devront évaluer les risques potentiels liés à des menaces existentielles : assassinats, cyberattaques massives, création de biarmes. À l’heure actuelle, ces entreprises ne sont pas tenues de rendre compte de leurs tests de sécurité, même si certaines le font volontairement. Le projet crée également des canaux protégés pour que les employés puissent signaler des failles sans crainte de représailles, et instaure une infrastructure cloud publique, CalCompute, pour équilibrer l’accès aux ressources de calcul entre les grands groupes et les chercheurs indépendants. La différence fondamentale avec SB 1047 réside dans la nature du texte : au lieu de prévoir une responsabilité civile directe, SB 53 se concentre sur la transparence et la déclaration obligatoire. Il cible aussi exclusivement les géants, laissant les startups en dehors du cadre, ce qui explique le relâchement de la résistance de Silicon Valley. Toutefois, des acteurs comme OpenAI et Andreessen Horowitz continuent de plaider pour une régulation fédérale unique, arguant que les lois étatiques pourraient violer la clause de commerce silencieuse de la Constitution. Wiener, lui, doute de la capacité du gouvernement fédéral à agir, accusant notamment l’administration Trump de s’être alignée sur les intérêts de la tech, notamment avec son plan d’action sur l’IA axé sur la croissance plutôt que sur la sécurité. Pour Wiener, la Californie doit jouer un rôle de pionnier, non pas pour étouffer l’innovation, mais pour la guider. Il insiste sur le fait qu’il n’est pas anti-tech, mais qu’il refuse de laisser l’industrie réguler elle-même. « La liberté d’innovation ne doit pas être une excuse pour ignorer les risques existentiels », affirme-t-il. Son message au gouverneur Newsom est clair : « Nous avons écouté vos préoccupations. Le SB 53 est le fruit d’un dialogue constructif, et il suit le chemin que vous avez tracé. » Si signé, ce texte pourrait devenir l’un des premiers cadres de sécurité de l’IA au niveau national, marquant une étape décisive dans la gouvernance de l’intelligence artificielle.

Liens associés

Californie : Scott Wiener lance une nouvelle offensive pour contraindre Big Tech à révéler les dangers de l’IA | Articles tendance | HyperAI