Californie : Nouvelle Pousse vers des Rapports de Sécurité Obligatoires pour les Grandes Sociétés d'IA
Californie : Un Nouveau Bond en Avant pour les Rapports de Sécurité Obligatoires sur l'IA Le mercredi, le sénateur de Californie Scott Wiener a introduit des amendements à son nouveau projet de loi, le SB 53, visant à obliger les plus grandes entreprises d'intelligence artificielle (IA) à publier des protocoles de sécurité et à émettre des rapports lorsqu'il se produira des incidents liés à la sécurité. Si cette loi est adoptée, la Californie deviendra le premier État à imposer des exigences de transparence significatives aux principaux développeurs d'IA, comme OpenAI, Google, Anthropic, et xAI. Contexte Historique Ce projet de loi succède à SB 1047, précédemment élaboré par le sénateur Wiener et qui proposait également des exigences de publication de rapports de sécurité. Cependant, le secteur de la technologie de la Sillicon Valley s'est farouchement opposé à cette initiative, et le gouverneur Gavin Newsom a finalement rejeté la proposition. Suite à cet échec, Newsom a appelé à la formation d'un groupe de politiques composé de leaders de l'IA, dont Fei-Fei Li, cofondatrice de World Labs et chercheuse de renom à Stanford. Recommandations du Groupe de Politiques Récemment, ce groupe a publié ses recommandations finales, soulignant la nécessité d'exiger des entreprises de l'IA qu'elles publient des informations sur leurs systèmes afin de créer un "environnement de preuves solide et transparent". L'annonce de ces recommandations a influencé de manière significative les amendements apportés à SB 53, selon le communiqué de presse du bureau du sénateur Wiener. "Il est crucial que la législation continue de progresser, et je suis impatient de travailler avec tous les parties prenantes au cours des prochaines semaines pour affiner cette proposition et la transformer en une loi científiquement solide et équitable," a déclaré le sénateur Wiener. Objectifs du SB 53 SB 53 vise à trouver un équilibre que son prédécesseur, SB 1047, n'a pas réussi à atteindre. Le projet de loi cherche à créer des exigences de transparencemeaningful pour les plus grands développeurs d'IA sans entraver la croissance rapide de l'industrie de l'IA en Californie. Contrairement à SB 1047, SB 53 ne rend pas les développeurs de modèles d'IA responsables des dommages causés par leurs technologies. Il est également conçu de manière à ne pas peser sur les startups et les chercheurs qui ajustent ou utilisent des modèles d'IA issus de ces grandes entreprises ou des modèles open source. Protection des Lanceurs d'Alerte Un autre aspect important du SB 53 est la création de protections pour les lanceurs d'alerte au sein des laboratoires d'IA. Ces protections s'appliqueront aux employés qui estiment que la technologie de leur entreprise présente un "risque critique" pour la société, défini comme susceptible de causer la mort ou les blessures de plus de 100 personnes, ou des dommages dépassant 1 milliard de dollars. CalCompute En outre, le projet de loi prévoit la création de CalCompute, un cluster de calcul public cloud destiné à soutenir les startups et les chercheurs travaillant sur des IA à grande échelle. Cette initiative vise à faciliter l'accès aux ressources de calcul nécessaires pour les innovations et les recherches en IA, sans que les coûts exorbitants associés ne soient un obstacle insurmontable. Réactions et Soutiens Nathan Calvin, vice-président des Affaires d'État à la groupe à but non lucratif Encode, a déclaré à TechCrunch : "Ces préoccupations sont des sujets qui ont été abordés par notre organisation et d'autres depuis longtemps. Exiger des entreprises qu'elles expliquent aux citoyens et au gouvernement les mesures prises pour répondre à ces risques semble être une étape minimale et raisonnable." Geoff Ralston, ancien président de Y Combinator, a également exprimé son soutien, affirmant : "Garantir que l'IA soit développée de manière sécurisée ne devrait pas être controversé – ce devrait être une base. Avec l'absence d'actions fédérales sérieuses, les États doivent prendre le relais. SB 53 est un exemple judicieux et bien structuré de leadership d'État." Perspective Nationale À l'échelle nationale, la Californie n'est pas la seule à avancer sur cette voie. À New York, la gouverneure Kathy Hochul examine actuellement le RAISE Act, une loi similaire qui exige également des grands développeurs d'IA qu'ils publient des rapports de sécurité et de protection. La dynamique des lois étatiques a brièvement été menacée lorsque les législateurs fédéraux ont envisagé un moratoire de 10 ans sur la régulation de l'IA au niveau étatique. Cette initiative visait à éviter un "bric-à-brac" de régulations d'IA que les entreprises seraient obligées de naviguer. Heureusement, cette proposition a échoué avec un vote du Sénat de 99-1 en juillet. Publication de Rapports de Sécurité Bien que les principales entreprises de modèles d'IA publient généralement des rapports de sécurité, elles ont été moins rigoureuses ces derniers mois. Par exemple, Google n'a pas publié de rapport de sécurité pour son modèle Gemini 2.5 Pro le plus avancé jusqu'à plusieurs mois après sa mise à disposition. De même, OpenAI n'a pas publiquement divulgué de rapport de sécurité pour son modèle GPT-4.1. Plus tard, une étude tierce a suggéré que ce modèle pourrait être moins aligné que les modèles précédents. Évaluation par l'Industrie Les entreprises d'IA restent divisées face à ces initiatives. Anthropic a exprimé un certain enthousiasme pour une augmentation de la transparence, en approuvant modestement les recommandations du groupe de politiques de la Californie. En revanche, des géants comme OpenAI, Google, et Meta demeurent plus réticents, préférant gérer la publication de ces rapports à leur guise. SB 53 représente donc une version plus modérée des précédentes propositions de législation sur la sécurité de l'IA, mais elle pourrait encore obliger les entreprises à partager davantage d'informations qu'elles ne le font actuellement. Les grandes entreprises de l'IA surveilleront de près l'évolution de la législation alors que le sénateur Wiener continue de pousser les limites de la transparence en matière de sécurité de l'IA. Trajectoire Législative L'étape suivante pour le SB 53 est d'être soumis au Comité de la Chambre sur la vie privée et la protection du consommateur de la Californie. S'il est approuvé, le projet de loi devra encore passer par plusieurs autres instances législatives avant d'arriver sur le bureau du gouverneur Newsom pour signature. Projet de Loi Califormer : Un Pas Important Vers la Transparence et la Sécurité de l'IA Le SB 53, s'il est adopté, marquera un tournant important dans la régulation de l'IA. Il établira des normes de transparence, offrira des protections aux lanceurs d'alerte, et créera un environnement propice à l'innovation grâce à CalCompute. Ces mesures visent à assurer que l'IA continue de progresser de manière responsable, tout en adhérant strictement aux principes de sécurité et d'éthique. Les entreprises de l'IA, bien que réservées, ne peuvent ignorer le mouvement croissant en faveur de la transparence, initié par la Californie et suivant de près par d'autres États.