HyperAI
Back to Headlines

Sénat supprime l'interdiction de réguler l'IA au niveau étatique

il y a 3 jours

Jusqu'à mardi, le projet de loi fiscale de l'administration Trump — également connu sous le nom de sa "grande, belle loi" — incluait une règle qui aurait empêché les États d'appliquer leurs propres législations sur l'intelligence artificielle (IA) pendant cinq ans. Cette règle menaçait également de retenir jusqu'à 500 millions de dollars de financement pour l'infrastructure de l'IA si les États ne se conformaient pas. La proposition initiale prévoyait même un embargo de 10 ans, avec une dépendance de 42 milliards de dollars de financement pour l'accès à Internet de haut débit (broadband) aux États qui ne se conformeraient pas à cette interdiction. Dans le cadre du "vote-o-rama" qui a commencé lundi et visait à faire adopter la loi fiscale avant le 4 juillet, le Sénat a voté 99 contre 1 pour retirer le moratoire de cinq ans sur la capacité des États à réguler l'IA. Ce vote intervient quelques jours seulement après que les sénateurs aient amendé la proposition initiale de 10 ans à cinq ans, en ajoutant des exemptions pour les lois ciblant les pratiques trompeuses et les contenus sexuellement abusifs impliquant des mineurs (CSAM). L'adoption de ce moratoire aurait eu plusieurs conséquences néfastes. Non seulement cela aurait rendu inefficaces les lois sur l'IA déjà en place, mais cela aurait aussi créé un déséquilibre entre les États : certains disposeraient de législations robustes mais manqueraient de financement pour les appliquer, tandis que d'autres auraient des fonds importants sans aucune régulation. Jonathan Walter, conseiller politique senior au Center for Civil Rights and Technology de The Leadership Conference, a souligné que les gouvernements étatiques et locaux doivent avoir le droit de protéger leurs résidents contre les technologies nuisibles et de tenir les entreprises responsables. Adam Billen, vice-président de la politique publique chez Encode, une organisation basée à Washington D.C. qui promeut une IA responsable, a célébré la victoire dans un post LinkedIn. Il a noté que grâce à l'effort conjoint de 40 procureurs généraux d'État, 14 gouverneurs, 260 législateurs d'État de tous les 50 États, plusieurs lettres de coalition regroupant plus de 140 organisations, ainsi que des milliers d'appels et d'e-mails de parents et de citoyens, la proposition a été presque entièrement éliminée, même par ses sponsors principaux. La politique fédérale en matière d'IA reste incertaine. L'administration Trump doit publier sa politique d'IA le 22 juillet, mais pour l'instant, le pays navigue sans repères clairs, ce qui a poussé plusieurs États à introduire leurs propres projets de loi sur l'IA. Sous l'administration Biden, qui avait pris des mesures pour réguler l'IA, les États avaient déjà commencé à élaborer des législations alors que la technologie évoluait rapidement vers des domaines inexplorés. Chas Ballew, PDG de Conveyor, un fournisseur d'agents d'IA, et ancien avocat réglementaire au Pentagone, a mis en garde contre le risque d'un "vide réglementaire dangereux" qui donnerait aux entreprises d'IA une décennie pour déployer des systèmes potentiellement nuisibles sans surveillance. Les systèmes d'IA utilisés dans les technologies de gestion des ressources humaines (HR tech), le recrutement, et les applications financières telles que le calcul des taux d'hypothèque ont déjà montré des biais envers les groupes marginalisés et peuvent même être racistes. Les actions de l'administration Trump depuis janvier ne suggèrent pas que la sécurité de l'IA est une priorité pour la régulation fédérale. Elle a annulé plusieurs initiatives de sécurité et partenariats de tests mis en place par l'administration Biden, réduit et renommé l'US AI Safety Institute en "US Center for AI Standards and Innovation" axé sur l'innovation, et coupé le financement de la recherche en IA. Bien que les entreprises d'IA préfèrent généralement une régulation fédérale pour simplifier la conformité, certaines situations nécessitent des régulations étatiques spécifiques. Comme l'a souligné Ballew, les différences entre les États en matière de régulation de l'IA reflètent leurs approches variées des questions sous-jacentes, comme le droit du travail, la protection des consommateurs, la protection de la vie privée et les droits civils. Une diversité de régimes réglementaires favorise la responsabilité, car les responsables étatiques et locaux sont les plus proches des personnes affectées par ces lois. Le programme Broadband Equity, Access, and Deployment (BEAD), géré par l'Administration nationale des télécommunications et de l'information (NTIA), est un programme de 42 milliards de dollars visant à aider les États à construire des infrastructures pour élargir l'accès à Internet de haut débit. Avant son amendement, la règle du Sénat aurait rendu ce financement contingent de l'abandon des lois étatiques sur l'IA, en plus de retenir 500 millions de dollars de nouveaux financements pour l'IA. Cette proposition aurait non seulement limité la régulation de l'IA, mais aussi celle des automatisations non alimentées par l'IA, y compris les algorithmes d'assurance, les systèmes de véhicules autonomes et les modèles déterminant le prix des services publics. L'élimination de cette règle marquée par le vote du Sénat est une victoire significative pour les défenseurs des droits civils et de la régulation responsable de l'IA. Cela permet aux États de continuer à jouer un rôle crucial dans la protection de leurs citoyens contre les technologies potentiellement nuisibles, tout en s'assurant qu'ils disposent des moyens nécessaires pour le faire. Le débat sur la régulation de l'IA continue, mais pour l'instant, les États ont conservé leur droit de légiférer et de surveiller ces systèmes, en attendant une politique fédérale plus claire et plus robuste. Cette décision souligne l'importance de la collaboration entre les différents niveaux de gouvernement pour établir des cadres réglementaires équilibrés et efficaces. Les experts soulignent que la régulation de l'IA doit s'adapter aux besoins et aux contextes locaux, tout en bénéficiant d'une direction fédérale cohérente. L'administration Trump devra donc, si elle souhaite vraiment encadrer l'IA, proposer une politique qui répond aux préoccupations des États et des citoyens, plutôt que de créer des obstacles à la régulation locale.

Related Links