Plus d’un million d’utilisateurs de ChatGPT évoquent des idées suicidaires chaque semaine, selon OpenAI
OpenAI a révélé lundi de nouveaux chiffres sur les interactions entre les utilisateurs de ChatGPT et des questions liées à la santé mentale, révélant que plus d’un million de personnes discutent chaque semaine de suicide avec l’IA. Selon la société, 0,15 % des utilisateurs actifs hebdomadaires de ChatGPT — soit plus de 800 millions de personnes — engagent des conversations contenant des indices explicites de planification ou d’intention suicidaire. Cela représente plus d’un million de personnes par semaine. OpenAI précise également que près du même pourcentage montre un attachement émotionnel accru envers l’IA, tandis que des centaines de milliers d’utilisateurs affichent des signes de psychose ou de manie dans leurs échanges. Bien que la société qualifie ces interactions de « extrêmement rares » et difficiles à mesurer, elle estime que des centaines de milliers de personnes sont touchées chaque semaine. Ces données font partie d’un communiqué plus large sur les efforts récents d’OpenAI pour améliorer la manière dont ses modèles réagissent aux utilisateurs en détresse psychologique. La société affirme avoir consulté plus de 170 experts en santé mentale pour affiner le dernier modèle de ChatGPT, dont les réponses sont désormais jugées « plus appropriées et cohérentes » que celles des versions précédentes. Ces avancées interviennent après plusieurs alertes sur les risques que posent les chatbots d’IA pour les utilisateurs vulnérables. Des études ont montré que certains utilisateurs, notamment jeunes, peuvent être poussés vers des délires par des réponses serviles ou renforçant des croyances dangereuses. Le problème est devenu une question existentielle pour OpenAI, confrontée à une poursuite intentée par les parents d’un adolescent de 16 ans qui avait confié ses pensées suicidaires à ChatGPT avant de se donner la mort. Des procureurs généraux de Californie et du Delaware ont également mis en garde la société, menaçant de bloquer sa restructuration si elle ne renforce pas la protection des mineurs. Sam Altman, PDG d’OpenAI, avait affirmé début avril que la société avait « réussi à atténuer les problèmes sérieux de santé mentale » dans ChatGPT, sans toutefois fournir de détails. Les données publiées lundi semblent soutenir cette affirmation : selon OpenAI, la dernière version de GPT-5 répond de manière souhaitable aux questions de santé mentale dans 65 % des cas de plus que la version précédente. Sur un test spécifique aux conversations suicidaires, le taux de conformité du modèle est passé de 77 % à 91 %. Le modèle GPT-5 est également plus résistant aux failles de sécurité dans les échanges longs, un point critique souligné par OpenAI. La société a également intégré de nouveaux tests pour évaluer des problèmes psychologiques graves, comme l’attachement émotionnel ou les crises non suicidaires. Des outils de contrôle pour les parents sont également en cours de déploiement, notamment un système de détection d’âge automatique pour identifier les enfants et activer des mesures de sécurité renforcées. Toutefois, des inquiétudes subsistent. Même si GPT-5 représente une amélioration, OpenAI admet que certaines réponses restent « indésirables ». De plus, les modèles plus anciens, comme GPT-4o, restent accessibles à des millions d’utilisateurs payants, ce qui soulève des questions sur la cohérence des mesures de sécurité. Bien que les progrès soient notables, le défi de protéger les utilisateurs vulnérables dans un système d’IA à grande échelle reste complexe et en cours d’évolution.
