OpenAI supprime une fonction de partage public pour protéger la vie privée des utilisateurs
OpenAI a retiré rapidement une fonctionnalité de ChatGPT qui permettait de rendre certaines conversations privées « découvrables » par les moteurs de recherche, après des inquiétudes croissantes concernant le risque d’exposition accidentelle d’informations personnelles. Dane Stuckey, directeur de la sécurité de l’information chez OpenAI, a annoncé la suppression de cette fonction via un message sur X (anciennement Twitter) jeudi. Il a expliqué qu’il s’agissait d’une « expérience éphémère » visant à aider les utilisateurs à découvrir des échanges utiles, mais qu’elle avait été abandonnée en raison de préoccupations majeures en matière de sécurité et de vie privée. « Nous pensons que cette fonction a introduit trop de risques de partage involontaire de contenus que les utilisateurs n’ont pas voulu rendre publics », a-t-il précisé. La fonction, qui nécessitait une action explicite de l’utilisateur (cochage d’une case pour « rendre cette discussion trouvable »), permettait aux échanges partagés d’apparaître dans les résultats de recherche de Google et d’autres moteurs. Bien que les conversations soient anonymisées, des utilisateurs ont exprimé leurs craintes sur les risques d’oublis ou de mauvaises lectures du texte des conditions d’utilisation. La journaliste Luiza Jarovsky avait lancé l’alerte en publiant sur X des exemples de discussions sensibles — allant de la harcèlement à des séances de thérapie improvisées — qui avaient été indexées par Google. Ses messages ont suscité une forte réaction, mettant en lumière le danger d’un partage non intentionnel de données privées. OpenAI a confirmé qu’elle travaillait à supprimer les contenus déjà indexés des moteurs de recherche, et que le retrait de la fonction serait étendu à tous les utilisateurs d’ici le lendemain matin. L’incident souligne les défis croissants auxquels sont confrontées les entreprises de l’IA dans la gestion des données personnelles, même lorsque les partages sont opt-in. Pour les experts en cybersécurité, cette décision reflète une prise de conscience accrue des risques liés à la visibilité des interactions humain-IA sur Internet. OpenAI, qui a récemment renforcé ses politiques de confidentialité, doit désormais équilibrer innovation et protection des utilisateurs. L’incident pourrait influencer les futures fonctionnalités de partage dans les assistants IA, en poussant les entreprises à adopter des mécanismes plus stricts d’information et de consentement.