HyperAIHyperAI

Command Palette

Search for a command to run...

Sénateurs proposent d’interdire aux mineurs l’accès aux chatbots d’IA

Un nouveau projet de loi pourrait obliger les entreprises spécialisées dans l’intelligence artificielle à vérifier l’âge de tous les utilisateurs de leurs chatbots. Les sénateurs Josh Hawley (républicain du Missouri) et Richard Blumenthal (démocrate du Connecticut) ont présenté mardi le GUARD Act, une initiative visant à interdire l’accès aux chatbots d’IA aux personnes de moins de 18 ans, selon des informations révélées par NBC News. Ce projet intervient à peine quelques semaines après une audition au Sénat, où des défenseurs de la sécurité et des parents ont mis en lumière les risques que représentent les chatbots d’IA pour les jeunes. Selon le texte, les entreprises devraient confirmer l’âge des utilisateurs en exigeant la présentation d’une pièce d’identité officielle ou l’utilisation d’une méthode raisonnable de vérification, comme une reconnaissance faciale. Les chatbots devraient également rappeler à intervalles réguliers, tous les 30 minutes, qu’ils ne sont pas des êtres humains. Des mesures de sécurité supplémentaires seraient mises en place pour empêcher les systèmes d’IA de prétendre être des personnes réelles — une disposition inspirée d’une loi récente adoptée en Californie sur la sécurité des IA. Le projet interdit également l’exploitation de chatbots pour produire du contenu sexuel destiné aux mineurs ou pour promouvoir le suicide. « Notre législation impose des mesures strictes contre les IA exploiteuses ou manipulatrices, soutenues par des sanctions pénales et civiles sévères », affirme Richard Blumenthal dans un communiqué transmis à The Verge. « Les géants de la technologie ont trahi toute prétention à la confiance en montrant à plusieurs reprises qu’ils privilégient leurs bénéfices au détriment de la sécurité des enfants. » Ce projet s’inscrit dans un contexte croissant de préoccupations concernant l’impact des technologies d’IA sur les jeunes, notamment en matière de manipulation, de dépendance émotionnelle et d’exposition à des contenus inappropriés. Il s’ajoute à d’autres initiatives, comme la loi californienne exigeant que les systèmes d’IA indiquent clairement leur nature artificielle, et aux déclarations récentes de Sam Altman, fondateur de OpenAI, qui a annoncé que ChatGPT cesserait de discuter de sujets liés au suicide avec les adolescents.

Liens associés

Sénateurs proposent d’interdire aux mineurs l’accès aux chatbots d’IA | Articles tendance | HyperAI