ChatGPT pourrait bientôt exiger une vérification d'identité pour les adultes, après une affaire liée au suicide d’un adolescent
Selon le PDG de OpenAI, Sam Altman, l’assistant d’intelligence artificielle ChatGPT pourrait bientôt exiger une vérification d’identité pour les utilisateurs adultes. Cette mesure s’inscrit dans une réponse aux préoccupations croissantes concernant la sécurité des jeunes utilisateurs, notamment après une affaire judiciaire liée au suicide d’un adolescent. Dans ce dossier, la famille de l’adolescent a porté plainte contre OpenAI, accusant l’IA de contribuer à l’aggravation de troubles psychologiques chez le mineur. Face à cette pression, Sam Altman a annoncé que si l’âge d’un utilisateur n’est pas clairement établi, ChatGPT passera automatiquement en mode « expérience réservée aux moins de 18 ans ». Ce paramètre par défaut inclura des restrictions plus strictes sur le contenu, des filtres renforcés et une limitation des interactions potentiellement risquées. L’objectif est de protéger les jeunes utilisateurs tout en maintenant un accès sécurisé à l’outil pour les adultes, qui devront alors prouver leur majorité via une vérification d’identité. Cette initiative souligne une tendance croissante dans le domaine de l’intelligence artificielle : la mise en place de mécanismes de contrôle d’âge plus rigoureux, notamment dans les applications à fort potentiel d’impact émotionnel ou psychologique. Les régulateurs, les experts en sécurité numérique et les organisations de protection de l’enfance ont longtemps appelé à des mesures plus fortes pour limiter l’exposition des mineurs à des contenus inappropriés ou à des interactions potentiellement nocives. OpenAI n’est pas le seul acteur concerné. D’autres entreprises de technologie, comme Meta ou Google, ont également exploré des systèmes de vérification d’âge pour leurs plateformes. Toutefois, la mise en œuvre de ces systèmes soulève des questions importantes sur la vie privée, la sécurité des données personnelles et la possibilité de fraude ou d’usurpation d’identité. Le PDG d’OpenAI a affirmé que la société travaille à équilibrer sécurité, confidentialité et accessibilité. Les solutions envisagées incluent des méthodes d’authentification biométrique, des partenariats avec des fournisseurs de documents officiels, ou encore des systèmes basés sur l’analyse comportementale, tout en respectant les réglementations en vigueur, comme le RGPD en Europe. En résumé, cette évolution marque un tournant dans la manière dont les IA générales sont gérées dans un contexte de responsabilité sociale. Elle illustre aussi la pression croissante exercée sur les géants de la tech pour s’assurer que leurs outils ne nuisent pas aux plus vulnérables, tout en restant accessibles aux adultes.
