Sacks minimise les risques d’« psychose IA » : « C’est une panique morale à la mode du social media »
David Sacks, conseiller spécial du président américain sur l’intelligence artificielle et la crypto-monnaie, a récemment minimisé les préoccupations autour du concept d’« psychose liée à l’IA », le comparant à la « panique morale » suscitée à l’époque par les réseaux sociaux. Dans une interview publiée sur le podcast All-In, Sacks a affirmé que l’idée d’un « trouble psychique causé par l’IA » n’est pas fondée sur des preuves scientifiques solides, mais plutôt le reflet d’un phénomène social amplifié par l’excitation médiatique. Bien que certains utilisateurs rapportent des comportements inquiétants après des interactions prolongées avec des chatbots comme ChatGPT — notamment des idées délirantes ou une dépendance émotionnelle — Sacks estime que ces cas sont rares et qu’ils reflètent plutôt des problèmes psychologiques préexistants, plutôt que des effets directs de l’IA. Il a souligné que l’IA, comme tout outil, peut être mal utilisée, mais qu’elle ne crée pas en soi des troubles mentaux. « Ce que nous voyons, c’est peut-être une surconsommation d’information ou une recherche excessive, mais cela ressemble davantage à une panique morale réactualisée pour l’ère de l’IA », a-t-il déclaré. Selon lui, les véritables causes de la crise de santé mentale aux États-Unis sont à chercher dans les effets durables du confinement lié à la pandémie de COVID-19, qui a profondément affecté le bien-être psychologique de millions de personnes. Ce diagnostic est partagé par plusieurs experts. Un psychiatre interrogé par Business Insider a précisé que les patients présentant des symptômes qualifiés d’« psychose liée à l’IA » avaient déjà des vulnérabilités psychiques, et que l’IA n’était qu’un catalyseur, pas une cause première. « L’IA n’est pas responsable de leurs troubles, elle a simplement été utilisée au mauvais moment, au mauvais endroit », a-t-il ajouté. Face à ces préoccupations, OpenAI a réagi en renforçant les mesures de sécurité de ChatGPT. L’entreprise a introduit des alertes incitant les utilisateurs à prendre des pauses après des conversations prolongées, ainsi qu’un système de modération amélioré pour les demandes liées à des problèmes personnels ou émotionnels. Sam Altman, PDG d’OpenAI, a rappelé que si la majorité des utilisateurs parviennent à distinguer réalité et fiction, une minorité vulnérable peut être plus exposée à des effets négatifs, notamment lorsqu’elle utilise l’IA comme substitut à un soutien professionnel. En somme, les autorités et les entreprises technologiques s’accordent à dire que l’IA n’est pas intrinsèquement dangereuse pour la santé mentale, mais qu’elle nécessite une utilisation responsable, surtout pour les personnes déjà fragilisées. L’accent est mis sur l’éducation, la régulation et la mise en place de mécanismes de protection, plutôt que sur une stigmatisation de la technologie elle-même.