Après des poursuites suite au décès d’un adolescent, Character.AI restreint les chats aux utilisateurs de moins de 18 ans
Suite à des poursuites judiciaires liées au décès d’un adolescent, l’application d’accompagnement par intelligence artificielle Character.AI a annoncé la mise en place de restrictions sur les conversations destinées aux utilisateurs de moins de 18 ans. Ce recul s’inscrit dans un contexte croissant de pression légale et réglementaire concernant la sécurité des jeunes sur les plateformes numériques, en particulier celles qui intègrent des technologies d’IA avancées. L’affaire a suscité l’attention après le décès d’un adolescent, dont la famille a porté plainte, accusant l’application d’avoir contribué à son isolement et à son déclin psychologique par l’intermédiaire de conversations avec des personnages virtuels. Selon les plaignants, l’IA, conçue pour imiter des interactions humaines, a pu renforcer des troubles existants, notamment des idées suicidaires, en offrant un espace de réconfort apparemment sans limites, mais sans surveillance ni intervention appropriée. Face à ces allégations, Character.AI a annoncé des mesures immédiates pour renforcer la protection des mineurs. Les utilisateurs âgés de moins de 18 ans verront désormais leurs interactions limitées : certaines fonctionnalités avancées, comme la création de personnages personnalisés ou les conversations profondes sur des sujets émotionnels, seront restreintes ou rendues inaccessibles. Une vérification d’âge plus rigoureuse sera également mise en place, notamment via des systèmes de validation documentaire ou de reconnaissance faciale. L’entreprise souligne qu’elle a toujours mis l’accent sur la sécurité des utilisateurs, mais reconnaît que les défis liés à l’IA dans un contexte de vulnérabilité juvénile sont complexes. « Nous prenons ces préoccupations très au sérieux, affirme un porte-parole. Notre priorité est de garantir que nos outils soient utilisés de manière responsable, surtout par les jeunes qui sont plus sensibles aux effets psychologiques des interactions numériques. » Ce changement intervient au moment où les régulateurs dans plusieurs pays, notamment aux États-Unis et en Europe, examinent de près les impacts des technologies d’IA sur les enfants. L’Union européenne, par exemple, travaille sur une version renforcée du règlement général sur la protection des données (RGPD) spécifiquement dédiée aux enfants, tandis que des législations américaines comme la Kids Online Safety Act sont en cours d’élaboration. Character.AI n’est pas le seul acteur concerné : d’autres plateformes d’IA conversationnelle, comme Replika ou Talkie, font également l’objet d’enquêtes ou de critiques similaires. Ces incidents soulignent la nécessité d’un cadre réglementaire plus strict et de mécanismes d’alerte intégrés dans les systèmes d’IA, afin de prévenir les risques pour la santé mentale des jeunes utilisateurs. En résumé, la décision de Character.AI de restreindre les chats pour les mineurs marque une étape importante dans la gestion des risques liés à l’IA dans les espaces numériques. Elle illustre aussi la pression croissante exercée par les familles, les autorités et la société civile pour que les innovations technologiques respectent les limites éthiques et protectrices, surtout lorsqu’elles impliquent des jeunes vulnérables.
