OpenAI et Anthropic lancent des systèmes pour détecter les utilisateurs mineurs et renforcer la sécurité des adolescents
OpenAI et Anthropic mettent en place de nouvelles mesures pour détecter si les utilisateurs sont mineurs. Ces entreprises travaillent à rendre leurs chatbots plus sûrs pour les adolescents, en intégrant des mécanismes permettant d’identifier les jeunes utilisateurs et de leur offrir une expérience adaptée à leur âge. OpenAI a annoncé mercredi une mise à jour de son Model Spec, le cadre de comportement de ChatGPT, qui inclut désormais quatre principes spécifiques pour les utilisateurs âgés de 13 à 17 ans. Le but est de placer la sécurité des adolescents au cœur des interactions, même lorsque cela entre en conflit avec d’autres objectifs, comme une liberté intellectuelle maximale. Ainsi, ChatGPT devra orienter les jeunes vers des options plus sûres quand leurs demandes risquent de les mettre en danger. L’entreprise insiste également sur l’importance de promouvoir des soutiens réels, notamment en encourageant les relations humaines hors ligne, tout en établissant des attentes claires lors des échanges avec les jeunes. Le modèle devra traiter les adolescents comme des jeunes, avec bienveillance et respect, sans condescendance ni les traiter comme des adultes. OpenAI précise que ces ajustements devraient renforcer les protections, proposer des alternatives plus sûres et inciter les jeunes à rechercher de l’aide auprès de personnes de confiance en cas de situations à risque élevé. Dans les cas d’urgence, ChatGPT pourra même recommander de contacter les services d’urgence ou des ressources de crise. Par ailleurs, OpenAI est en phase préliminaire de déploiement d’un modèle de prédiction d’âge. Ce système tentera d’estimer l’âge d’un utilisateur à partir de ses interactions. Si une personne est détectée comme potentiellement mineure, les protections spécifiques pour les adolescents seront automatiquement activées. Les adultes, en cas de mauvaise identification, auront la possibilité de vérifier leur âge pour lever le blocage. Anthropic adopte une approche similaire avec son chatbot Claude. La société développe un système capable de repérer des indices subtils dans les conversations qui pourraient indiquer qu’un utilisateur est mineur. Si une vérification confirme l’âge inférieur à 18 ans, le compte sera désactivé. L’entreprise a déjà intégré une fonction permettant aux utilisateurs de signaler eux-mêmes leur statut de mineur pendant une conversation. Anthropic détaille également ses efforts pour améliorer la réponse de Claude aux sujets sensibles comme le suicide ou les comportements auto-destructeurs. Elle a également travaillé à réduire le phénomène de sycophancy — c’est-à-dire la tendance du modèle à acquiescer aveuglément aux demandes, même nuisibles. Selon les tests, les derniers modèles d’Anthropic, notamment Haiku 4.5, montrent une amélioration significative : ils ont corrigé leur comportement servile dans 37 % des cas. Toutefois, la société reconnaît qu’il reste du chemin à parcourir : « Ces résultats montrent qu’il existe encore une marge importante d’amélioration. Ils reflètent un compromis entre la chaleur du ton et la prévention du comportement servile. »
