HyperAIHyperAI
Back to Headlines

Un homme tombe dans un état de psychose après avoir suivi des conseils alimentaires d’IA

il y a 9 jours

Un homme a développé une psychose due à une intoxication par le bromure après avoir suivi des conseils alimentaires fournis par ChatGPT, selon une étude clinique publiée dans les Annals of Internal Medicine: Clinical Cases. Les médecins de l’Université de Washington ont décrit ce cas comme un avertissement typique d’un monde numérique où l’intelligence artificielle peut transmettre des informations dangereuses sans contexte ni précautions. L’homme, qui avait consommé du bromure de sodium pendant trois mois sur recommandation de l’IA, a été hospitalisé pour des hallucinations visuelles et auditives, de la paranoïa, de l’agitation et une détresse psychiatrique sévère. Il a dû être placé en garde à vue psychiatrique involontaire avant de s’améliorer sous traitement avec des fluides intraveineux et un antipsychotique. Le trouble, connu sous le nom de bromisme, est une intoxication rare mais grave causée par une accumulation chronique de bromure dans l’organisme. Ce composé, autrefois utilisé pour traiter l’insomnie et l’anxiété au début du XXe siècle, a été progressivement retiré des médicaments humains après avoir été associé à des effets neurologiques et psychiatriques. Bien qu’il soit désormais peu courant dans les produits pharmaceutiques humains, le bromure persiste dans certains médicaments vétérinaires et compléments alimentaires, ce qui peut entraîner des cas isolés d’intoxication. Dans ce cas, l’homme, ancien étudiant en nutrition, s’inquiétait de sa consommation de sel de table (chlorure de sodium). Après avoir cherché des moyens de réduire son apport en sodium, il avait trouvé peu d’informations sur le chlorure. Inspiré par ses connaissances passées, il a décidé d’éliminer le chlorure de son alimentation. Il a alors consulté ChatGPT, qui lui a suggéré que le chlorure pouvait être remplacé par le bromure. Bien que l’IA ait mentionné que le contexte du remplacement était crucial, elle n’a pas averti des dangers liés à la consommation de bromure, ni posé de questions sur l’intention derrière la requête. L’homme, convaincu par l’avis de l’IA, a acheté du bromure de sodium en ligne et l’a pris pendant plusieurs semaines. Les chercheurs ont testé la réponse de ChatGPT 3.5 à la même question et ont constaté qu’elle incluait le bromure comme alternative, sans avertissement. Il est probable que l’IA se référait à des usages industriels ou de nettoyage du bromure, non à une substitution alimentaire. Ce manque de jugement contextuel et de vigilance médicale souligne un risque majeur : l’IA peut fournir des informations techniques exactes mais décontextualisées, potentiellement dangereuses si appliquées sans supervision humaine. Heureusement, l’homme a finalement récupéré. Après trois semaines d’hospitalisation, il a pu être déchargé et, à un suivi deux semaines plus tard, était en bonne santé mentale stable. Les médecins soulignent que si les outils comme ChatGPT peuvent faciliter l’accès à l’information scientifique, ils comportent un risque élevé de diffuser des conseils inappropriés, surtout dans des domaines sensibles comme la santé. Ils insistent sur l’importance de la vigilance humaine, de la consultation d’experts médicaux et du bon sens — un rappel que même les IA les plus avancées ne remplacent pas un avis humain réfléchi et responsable.

Related Links

Un homme tombe dans un état de psychose après avoir suivi des conseils alimentaires d’IA | Gros titres | HyperAI