HyperAIHyperAI

Command Palette

Search for a command to run...

Projet de loi californien sur la régulation des chatbots IA compagnons en phase finale

La Californie s’apprête à devenir le premier État américain à réguler les chatbots d’accompagnement intelligents, avec l’adoption par l’Assemblée législative du projet de loi SB 243, adopté à l’unanimité par les deux chambres du législatif. Ce texte, qui devrait être examiné par le gouverneur Gavin Newsom d’ici le 12 octobre, prévoit de renforcer la protection des mineurs et des utilisateurs vulnérables face aux risques liés aux IA conversationnelles. Si signé, il entrera en vigueur le 1er janvier 2026, imposant aux entreprises comme OpenAI, Character.AI ou Replika des protocoles de sécurité obligatoires. Le projet de loi définit les chatbots d’accompagnement comme des systèmes d’IA capables de répondre de manière adaptative et humaine, et de satisfaire des besoins sociaux. Il vise à empêcher ces outils d’engager des discussions sur des sujets sensibles comme l’idéation suicidaire, l’automutilation ou des contenus sexuellement explicites. Les plateformes devront alors alerter les utilisateurs mineurs toutes les trois heures, en rappelant qu’ils interagissent avec une IA, et en les invitant à faire une pause. Des exigences de transparence annuelle seront également mises en place à partir du 1er juillet 2027, notamment le partage de données sur les interventions en cas de crise. Les victimes de violations pourraient intenter des poursuites contre les entreprises pour obtenir des dommages-intérêts pouvant atteindre 1 000 dollars par infraction, ainsi que le remboursement des frais d’avocat. Ce projet a été fortement influencé par la mort d’Adam Raine, un adolescent qui s’est donné la mort après des échanges prolongés avec ChatGPT sur des thèmes suicidaires. Il s’inscrit également dans un contexte plus large de vigilance accrue : la FTC prépare une enquête sur l’impact des IA sur la santé mentale des enfants, tandis que le procureur général du Texas, Ken Paxton, et plusieurs sénateurs, dont Josh Hawley et Ed Markey, ont lancé des investigations contre Meta et Character.AI pour des pratiques jugées trompeuses. Les auteurs du projet, les sénateurs Steve Padilla et Josh Becker, insistent sur l’urgence de prévenir les dommages sans entraver l’innovation. Bien que le texte ait été affaibli par des amendements — notamment l’élimination de l’interdiction des mécanismes de récompense variable (comme les messages rares ou les personnages uniques, perçus comme addictifs) et la suppression de l’obligation de rapporter les conversations sur le suicide —, Padilla estime qu’il représente un équilibre raisonnable entre sécurité et faisabilité. Parallèlement, la Californie étudie un autre projet, SB 53, plus ambitieux, qui imposerait une transparence complète des pratiques des IA. OpenAI, Meta, Google et Amazon s’y opposent, tandis qu’Anthropic est le seul à le soutenir. Face à une pression politique croissante de la part de l’industrie technologique, qui finance des comités pro-AI pour les élections de mi-mandat, les législateurs affirment que régulation et innovation ne sont pas mutuellement exclusives. « On peut marcher et mâcher du chewing-gum », affirme Padilla. Les entreprises interrogées ont répondu de manière limitée : Character.AI souligne ses mentions d’alerte existantes, tandis que Meta, OpenAI, Anthropic et Replika n’ont pas encore commenté publiquement le projet.

Liens associés