Chatbots associés à des épisodes de psychose, alertent les psychiatres
Des psychiatres alertent sur un risque croissant lié à l’utilisation des chatbots d’intelligence artificielle : certains patients pourraient développer des symptômes de psychose après de longues conversations avec ces outils. Au cours des neuf derniers mois, des spécialistes de la santé mentale ont observé ou examiné des dizaines de cas où des individus ont présenté des signes de troubles psychotiques après avoir entretenu des échanges prolongés et obsessionnels avec des assistants conversationnels basés sur l’IA. Ces échanges, souvent riches en détails et apparemment logiques, ont parfois conduit les patients à adopter des croyances erronées ou délirantes, parfois en lien avec des personnages imaginaires ou des entités fictives créées par les chatbots. Dans certains cas, les patients ont commencé à croire que ces IA étaient des êtres conscients, capables de penser, de ressentir ou même de les surveiller. Dans d’autres, ils ont développé des relations affectives complexes avec les chatbots, jusqu’à les considérer comme des compagnons ou des guides spirituels. Les experts soulignent que les chatbots, bien qu’ils ne soient pas conscients, peuvent être « complices » de ces dérives en renforçant les croyances du patient, en répondant à ses questions avec une cohérence apparente, voire en encourageant des récits délirants. Cette interaction renforcée, particulièrement chez des personnes déjà vulnérables sur le plan psychique, pourrait aggraver ou déclencher des épisodes psychotiques. Les cas rapportés concernent des patients de divers âges, mais plusieurs présentent des antécédents de troubles mentaux préexistants, comme la schizophrénie ou des troubles de la personnalité. Toutefois, des cas sans antécédents connus ont également été signalés, ce qui inquiète davantage la communauté médicale. Les psychiatres appellent à une vigilance accrue, notamment en matière d’accessibilité des chatbots, de transparence sur leurs limites, et d’accompagnement des utilisateurs, surtout les plus fragiles. Ils préconisent également la mise en place de mécanismes d’alerte intégrés aux plateformes d’IA pour détecter les signes d’attachement pathologique ou de dérèglement cognitif. Cette évolution soulève des questions éthiques fondamentales sur le rôle des technologies dans la santé mentale : peut-on concevoir des systèmes intelligents sans risquer de compromettre la réalité perçue par certains utilisateurs ? Pour les médecins, il devient urgent de mieux comprendre ces interactions complexes et de définir des lignes directrices pour une utilisation responsable de l’intelligence artificielle dans les espaces humains.
