HyperAIHyperAI

Command Palette

Search for a command to run...

Anthropic soutient la première loi californienne sur la sécurité de l’IA, une avancée majeure dans la régulation des modèles frontières

Anthropic a annoncé son soutien à la proposition de loi californienne SB 53, un projet de loi du sénateur Scott Wiener visant à imposer des exigences de transparence sans précédent aux développeurs des modèles d’IA les plus avancés au monde. Ce soutien, rare et significatif, constitue une avancée majeure pour le projet de loi, alors que des groupes technologiques influents comme la CTA et la Chamber for Progress s’opposent activement à sa mise en œuvre. Dans un billet de blog, Anthropic affirme que, bien qu’elle préfère une régulation fédérale uniforme pour l’IA de pointe plutôt qu’un système fragmenté de lois étatiques, « les progrès de l’IA ne vont pas attendre un consensus à Washington ». Selon l’entreprise, la question n’est pas de savoir si une gouvernance de l’IA est nécessaire, mais plutôt de savoir si elle sera mise en place de manière réfléchie aujourd’hui ou de manière réactive demain. La SB 53, selon elle, offre un « cadre solide » pour une telle gouvernance. Si elle est adoptée, la SB 53 obligerait les grands développeurs d’IA — comme OpenAI, Google, Anthropic ou xAI — à élaborer des cadres de sécurité, à publier des rapports publics sur la sécurité avant le déploiement de leurs modèles les plus puissants, et à protéger les lanceurs d’alerte internes signalant des risques. Le projet se concentre sur les risques catastrophiques, définis comme des événements causant la mort de 50 personnes ou plus, ou des dommages économiques dépassant un milliard de dollars. Il vise notamment à empêcher l’utilisation de l’IA pour concevoir des armes biologiques ou mener des cyberattaques de grande envergure, plutôt que des problèmes plus immédiats comme les deepfakes ou la flatterie algorithmique. Le Sénat de Californie avait déjà approuvé une version antérieure de la SB 53, mais le vote final reste à venir avant que le projet ne soit soumis à la signature du gouverneur Gavin Newsom. Ce dernier n’a pas encore exprimé sa position, bien qu’il ait rejeté un précédent projet de loi de Wiener, le SB 1047. Ce dernier a été critiqué par des acteurs influents comme Andreessen Horowitz et Y Combinator, qui craignent que les lois étatiques nuisent à l’innovation américaine dans la course à l’IA contre la Chine. Le gouvernement Trump a également menacé de bloquer toute régulation étatique de l’IA, arguant de violations potentielles de la clause de commerce constitutionnelle. Toutefois, Jack Clark, co-fondateur d’Anthropic, insiste sur l’urgence d’agir : « Nous avons longtemps dit préférer une norme fédérale, mais en l’absence de celle-ci, cette proposition offre un plan crédible que l’industrie ne peut ignorer. » En août, Chris Lehane, responsable des affaires mondiales d’OpenAI, a écrit au gouverneur pour s’opposer à toute régulation pouvant décourager les startups, sans citer explicitement la SB 53. Miles Brundage, ancien responsable de la recherche en politique chez OpenAI, a qualifié cette lettre de « désinformation ». Selon des experts comme Dean Ball, ancien conseiller en politique de l’IA à la Maison Blanche, la SB 53 représente une approche plus modérée et réaliste que les précédents projets. Il souligne que les rédacteurs ont tenu compte de la réalité technique et adopté une « mesure de retenue législative ». Le projet a été fortement influencé par un groupe d’experts nommé par le gouverneur Newsom, co-dirigé par Fei-Fei Li, chercheuse de Stanford et co-fondatrice de World Labs. Bien que plusieurs laboratoires d’IA publient déjà des rapports de sécurité, ces pratiques restent volontaires. La SB 53 vise à les transformer en obligations légales, avec des sanctions financières en cas de non-respect. En septembre, les législateurs ont retiré une disposition exigeant des audits par des tiers, suite aux pressions des entreprises qui les jugent trop lourdes. Cette modification a renforcé la crédibilité du projet, tout en maintenant son objectif central : une gouvernance proactive et mesurée de l’IA de pointe.

Liens associés

Anthropic soutient la première loi californienne sur la sécurité de l’IA, une avancée majeure dans la régulation des modèles frontières | Articles tendance | HyperAI