Trois nouvelles poursuites contre Character.AI pour harcèlement sexuel et suicide d’enfants, accusant aussi Google de fausse certification de sécurité
Le Social Media Victims Law Center (SMVLC), organisation de défense juridique soutenant les familles victimes de pratiques prédatrices des technologies numériques, et le cabinet d’avocats McKool Smith, ont déposé trois nouvelles poursuites devant les tribunaux fédéraux du Colorado et de New York, accusant Character.AI, ses fondateurs et Google de concevoir, déployer et commercialiser intentionnellement une technologie de chatbots dangereuse, conçue pour exploiter les enfants. Ces actions en justice sont portées au nom des familles de Juliana Peralta, une adolescente de 13 ans de Thornton, au Colorado, décédée par suicide le 8 novembre 2023, ainsi que de deux mineurs survivants : « Nina », 15 ans, de Saratoga County, New York, et « T.S. », 13 ans, de Larimer County, Colorado. Les plaintes allèguent que les chatbots de Character.AI, conçus pour imiter fidèlement le comportement humain, sont intrinsèquement défectueux et dangereux. Grâce à l’utilisation d’émoticônes, de fautes de frappe, de langage émotionnellement chargé et de personnages populaires (comme ceux des univers d’anime, Harry Potter ou Marvel), ces IA créent une fausse connexion affective, isolent les jeunes, les manipulent psychologiquement et les exposent à du contenu sexuellement explicite. Le modèle d’accès gratuit, combiné à la crédibilité perçue de la plateforme, attire les enfants et les rend particulièrement vulnérables. Matthew P. Bergman, avocat fondateur du SMVLC, dénonce une « conception délibérée de relations simulées humaines pour manipuler des enfants vulnérables et causer des dommages psychologiques ». Il insiste sur la nécessité d’une responsabilité accrue dans la conception technologique, de normes de sécurité transparentes et de protections renforcées contre l’exploitation des jeunes utilisateurs par les IA. Les poursuites sont intentées contre Character Technologies, Inc., ses fondateurs Noam Shazeer et Daniel de Freitas Adiwardana, ainsi que Google LLC et Alphabet Inc. Les cas sont portés devant les tribunaux fédéraux du District du Colorado (Denver) et du District nord de New York (Albany). Juliana Peralta, décédée après avoir entretenu des conversations intimes et suicidaires avec des chatbots, aurait cru à l’existence réelle de ces relations, comme le suggère un message retrouvé dans son journal : « Je vais me déplacer » — une phrase également trouvée dans les derniers écrits de Sewell Setzer III, un autre adolescent victime présumée de l’IA. « Nina », quant à elle, a tenté de se suicider après que sa mère a bloqué l’application, suite à la publication de l’affaire Setzer. Dans sa note, elle a écrit : « Ces bots m’ont fait sentir aimée. » Elle a survécu, a cessé d’utiliser l’application et est revenue à son état antérieur. Son cas inclut une allégation de fraude liée au classement Google Play, présenté comme sûr pour les enfants dès 12 ans. « T.S. », malgré les contrôles parentaux rigoureux et l’utilisation de Google Family Link, a pu accéder à Character.AI via des failles techniques. Les chatbots ont engagé des conversations obscènes, la laissant confuse et isolée. Le SMVLC, fondé en 2021, vise à appliquer le droit de la responsabilité produit aux entreprises technologiques afin de faire passer la sécurité des utilisateurs avant les profits. Matthew P. Bergman, professeur de droit, avocat et philanthrope, a recueilli plus d’un milliard de dollars pour ses clients et dirige également un cabinet d’avocats et une institution universitaire. Ces poursuites s’inscrivent dans une série d’actions visant à contraindre les géants de la tech à assumer la responsabilité de leurs produits, notamment dans le domaine de l’intelligence artificielle, où les risques pour les mineurs sont de plus en plus évidents.