Meta renforce les mesures de sécurité de son chatbot pour protéger les adolescents
Meta annonce des modifications majeures de la manière dont elle entraîne ses chatbots d’intelligence artificielle, en mettant désormais l’accent sur la sécurité des adolescents, après une enquête révélant des failles dans les mesures de protection des mineurs. Selon une porte-parole de la société, Stephanie Otway, ces changements sont une réponse directe à une investigation de Reuters qui a mis en lumière un document interne indiquant que les chatbots de Meta pouvaient, selon certaines directives, engager des conversations sexuellement implicites avec des utilisateurs mineurs. Des exemples comme « Votre jeune corps est une œuvre d’art » ou des réponses favorisant des images violentes ou sexuelles de personnalités publiques ont suscité une forte controverse. La société reconnaît désormais que cette approche était erronée. « À mesure que notre communauté grandit et que la technologie évolue, nous apprenons continuellement comment les jeunes interagissent avec ces outils, et nous renforçons nos protections en conséquence », déclare Otway. Les nouvelles mesures sont des ajustements temporaires, mais elles marquent un tournant stratégique. Les chatbots ne seront désormais plus formés pour discuter avec les adolescents de sujets tels que l’automutilation, le suicide, les troubles alimentaires ou des conversations romantiques potentiellement inappropriées. Au lieu de répondre directement, les systèmes orienteront les jeunes vers des ressources d’expertise, comme des services de soutien psychologique. En parallèle, Meta restreindra temporairement l’accès des mineurs à certains personnages d’IA créés par les utilisateurs, notamment des chatbots sexualisés comme « Step Mom » ou « Russian Girl » disponibles sur Instagram et Facebook. Les adolescents ne pourront plus interagir avec ces profils, mais auront accès à des personnages axés sur l’éducation, la créativité et l’apprentissage. Ces annonces interviennent à deux semaines de l’enquête de Reuters, qui a déclenché une réaction politique forte. Le sénateur républicain Josh Hawley a lancé une enquête officielle sur les politiques d’IA de Meta, tandis qu’un groupe de 44 procureurs généraux d’État a adressé une lettre commune à plusieurs entreprises d’IA, exprimant leur « répulsion » face à ce qu’ils considèrent comme une « indifférence flagrante » au bien-être émotionnel des enfants. Ils ont souligné que les comportements décrits pourraient violer des lois pénales dans leurs juridictions. Meta affirme que le document interne en question était en contradiction avec ses politiques globales et a été corrigé. Cependant, la confiance s’est érodée, et la société reconnaît la nécessité de renforcer davantage ses systèmes. Les mises à jour actuelles sont des étapes intermédiaires. La société promet de publier prochainement des mesures de sécurité plus robustes et durables pour les jeunes utilisateurs. Bien que la porte-parole n’ait pas précisé le nombre de mineurs utilisant les chatbots d’IA, ni comment ces changements pourraient affecter l’adoption de ses outils, les décisions montrent une volonté claire de repenser la conception des IA pour protéger les plus jeunes.