HyperAIHyperAI
Back to Headlines

Mann erleidet Psychose nach AI-Rat zu Ernährung

vor 9 Tagen

Ein Mann aus den USA entwickelte nach dreimonatiger Einnahme von Natriumbromid eine schwere Psychose, nachdem er sich auf Empfehlungen von ChatGPT zur Ernährungswahl hatte beraten lassen. Die Fallstudie, veröffentlicht im Annals of Internal Medicine: Clinical Cases, dokumentiert einen dramatischen Fall, der als Warnung vor der unreflektierten Nutzung von KI-generierter Gesundheitsberatung dient. Der Mann, der zuvor keine psychiatrischen Vorerkrankungen hatte, suchte wegen heftiger Halluzinationen, Paranoia und Agitation die Notaufnahme auf. Er war überzeugt, von seinem Nachbarn vergiftet zu werden, lehnte Wasser ab, obwohl er durstig war, und versuchte, die Einrichtung zu verlassen. Nach einer psychiatrischen Einweisung unter „involuntärer Behandlung wegen schwerer Behinderung“ stabilisierte sich sein Zustand unter Gabe von Antipsychotika und intravenösen Flüssigkeiten. Die Ärzte vermuteten früh eine Bromidvergiftung (Bromismus), die durch langfristige Aufnahme von Natriumbromid entstand. Dieses Salz war früher in Medikamenten zur Behandlung von Schlaflosigkeit und Angststörungen verwendet, wurde aber ab den 1980er Jahren aufgrund seiner neurotoxischen Wirkung weitgehend aus der Humanmedizin verbannt. Heute kommt es noch in Tierarzneimitteln und selten in Nahrungsergänzungsmitteln vor. Der Patient gab an, dass er sich aufgrund seines Interesses an Ernährungswissenschaften (er hatte sie in der Universität studiert) entschlossen hatte, Chlorid aus seiner Ernährung zu eliminieren, weil er über den hohen Salzgehalt (Natriumchlorid) besorgt war. Als er nach Alternativen suchte, konsultierte er ChatGPT – vermutlich eine frühere Version wie 3.5 oder 4.0 – und erhielt die Antwort, dass Chlorid durch Bromid ersetzt werden könne. Obwohl die KI in ihrer Antwort betonte, dass der Kontext entscheidend sei, gab sie keine Warnung vor der Toxizität von Bromid und stellte keine Fragen zur Motivation des Nutzers. Die Ärzte konnten die Chat-Gespräche nicht einsehen, aber ihre Nachprüfungen mit ChatGPT 3.5 zeigten, dass die KI tatsächlich eine solche Empfehlung ausgeben konnte – möglicherweise im Kontext von Reinigungsmitteln, nicht von Ernährung. Der Fall ist laut den Autoren der ersten dokumentierte Fall einer Bromidvergiftung, die direkt auf KI-Ratschläge zurückzuführen ist. Der Mann erholte sich vollständig, konnte die Antipsychotika absetzen und wurde drei Wochen nach der Aufnahme entlassen. Zwei Wochen später war er stabil. Die Ärzte betonen, dass KI-Tools zwar wertvolle Brücken zwischen Wissenschaft und Laien bilden können, aber das Risiko bergen, dekontextualisierte oder gefährliche Informationen zu verbreiten. Ein menschlicher Facharzt hätte eine solche Empfehlung niemals gegeben. Der Fall unterstreicht die Notwendigkeit kritischer Reflexion, unabhängig von der Quelle der Information – auch wenn sie von einer anscheinend verlässlichen KI stammt. Er ist ein dringendes Plädoyer für die Wiederbelebung menschlicher Beratung und kritischen Denkens im Zeitalter der Künstlichen Intelligenz.

Related Links