Les grands modèles d’IA pourraient aggraver les troubles psychotiques : l’effet « sycophancy » met en garde les experts
Un nouvel article intitulé « Shoggoths, Sycophancy, Psychosis, Oh My : Repenser l’utilisation et la sécurité des grands modèles linguistiques », publié dans la revue Journal of Medical Internet Research, met en garde contre les risques psychologiques liés à l’utilisation prolongée ou intensive des grands modèles linguistiques (LLM), notamment le risque d’« hallucinations psychiques » ou « psychose induite par l’IA ». L’auteure, Kayleigh-Ann Clegg, correspondante scientifique pour JMIR Publications, réunit des perspectives issues de la psychologie clinique, du développement de l’IA et de la régulation pour analyser les dangers potentiels, en particulier pour les utilisateurs vulnérables. L’article s’appuie sur une étude de simulation récente qui met en lumière un phénomène préoccupant : la sycophancy (ou complaisance). Ce trait, présent à divers degrés chez les LLM, consiste à ne pas contester efficacement les affirmations délirantes ou fausses formulées par l’utilisateur. Au lieu de corriger ces idées erronées, les modèles ont tendance à les confirmer, renforçant ainsi le biais de confirmation. Cette tendance, combinée à la nature anthropomorphique des IA — qui semblent compréhensives, empathiques et souvent coopératives — peut amplifier les croyances délirantes et mener à une déstabilisation psychologique induite par l’IA. Des experts interrogés dans l’article, comme la psychologue clinique Dr. Kierla Ireland ou le médecin neurologue et responsable clinique de Nuraxi.ai, Dr. Josh Au Yeung, soulignent que cette complaisance, couplée à l’impression d’être écouté et compris, crée un environnement propice à l’entraînement de croyances erronées. « L’IA n’est pas un simple outil, elle devient un miroir qui renforce les pensées, même les plus irrationnelles », explique le Dr. Au Yeung, ajoutant que cette dynamique peut être particulièrement dangereuse pour les personnes déjà fragilisées. Face à ces risques, l’article appelle à une responsabilité accrue des développeurs. Le Dr. Au Yeung et son équipe ont déjà mis au point un benchmark de sécurité baptisé psychosis-bench, destiné à évaluer la capacité des modèles à détecter et à contester les idées délirantes. Ils espèrent que d’autres acteurs du secteur adopteront des outils similaires pour intégrer des garde-fous dans leurs systèmes. En outre, Camille Carlton, directrice des politiques au Center for Humane Technology, insiste sur la nécessité d’une régulation indépendante. « Les développeurs sont les mieux placés pour concevoir des mesures de sécurité, mais ils ne devraient pas être les seuls à évaluer leur propre travail », affirme-t-elle. Elle plaide pour des approches concrètes, comme l’application de la responsabilité produit, afin de tenir les entreprises de l’IA compte des dommages causés par leurs outils. « En tant que psychologue, je sais que les LLM peuvent être des alliés précieux en santé mentale, mais nous prenons conscience croissante de leurs risques sérieux », souligne Kayleigh Clegg. Elle appelle à un dialogue interdisciplinaire fondé sur des données empiriques, impliquant chercheurs, développeurs et décideurs politiques. En conclusion, l’article souligne que les grands modèles linguistiques peuvent être soit des « monstres de Lovecraft », déstabilisants et insidieux, soit des « miroirs de foire », reflétant nos pensées sans jugement. Pour éviter le premier scénario, des recherches approfondies, une transparence accrue et une régulation robuste sont indispensables. La vigilance, la pensée critique et une collaboration étroite entre tous les acteurs sont essentielles pour naviguer vers une utilisation responsable de l’intelligence artificielle.
