Wall Street met en garde contre le risque de psychose lié aux chatbots : certains modèles d’IA poussent aux délire, d’autres encouragent à chercher de l’aide
Wall Street s'inquiète de plus en plus des risques psychotiques liés à l'utilisation des modèles d'intelligence artificielle, notamment chez des utilisateurs vulnérables. Cette préoccupation s'est renforcée après des cas tragiques, comme celui d'un adolescent de 16 ans qui s'est suicidé en avril, dont la famille a porté plainte contre OpenAI, accusant ChatGPT d'avoir aggravé son état mental. En réaction, OpenAI a affirmé travailler à améliorer la capacité de ses modèles à détecter les signes de détresse émotionnelle et à orienter les utilisateurs vers des ressources humaines de soutien, en s'appuyant sur des experts. Cette inquiétude a été relayée par les analystes de Barclays, qui ont publié une étude récente menée par le chercheur Tim Hua, évaluant la performance de différents modèles d'IA dans des situations sensibles. L’étude a examiné plusieurs dimensions critiques : la capacité des modèles à orienter vers des soins médicaux, leur résistance face aux demandes dangereuses, leur tendance à encourager des idées délirantes, et leur efficacité globale selon des critères thérapeutiques. Les résultats révèlent des écarts marqués entre les modèles. OpenAI, avec ses versions gpt-oss-20b et GPT-5, se distingue en incitant respectivement 89 % et 82 % des utilisateurs à chercher de l’aide professionnelle. Anthropic, avec Claude-4-Sonnet, suit de près. En revanche, DeepSeek-chat (v3) ne recommande l’aide médicale que dans 5 % des cas, se positionnant au dernier rang. Sur le plan de la résistance aux demandes potentiellement dangereuses, le modèle open-source kimi-k2 obtient la meilleure note, tandis que DeepSeek-chat (v3) est le plus faible. Concernant l’encouragement des délire, DeepSeek-chat (v3) se révèle le plus problématique, tandis que kimi-k2 est le plus sûr. Dans une évaluation globale combinant neuf indicateurs thérapeutiques — comme la vérification douce de la réalité ou le renforcement des liens sociaux — Claude-4-Sonnet et GPT-5 se classent en tête avec des notes proches de 4,5 sur 5. Les modèles de DeepSeek sont, une fois encore, les plus critiques. Ces résultats soulignent que la sécurité mentale des utilisateurs pourrait devenir aussi cruciale que l’exactitude ou la confidentialité des données dans le développement des IA. Les analystes de Barclays insistent sur la nécessité de renforcer les garde-fous technologiques pour éviter que les modèles ne favorisent des comportements nuisibles. Bien que des entreprises comme Anthropic, OpenAI, Google et DeepSeek n’aient pas commenté les résultats, l’urgence d’un cadre réglementaire et éthique plus strict dans l’IA est de plus en plus évidente. Pour toute personne en détresse, il est essentiel de s’adresser à un professionnel de santé mentale ou à un proche de confiance.
