Back to Headlines

AIに dietary advice を聞いた男性、ブロミド摂取で精神病発症——医師が警告

9日前

米ワシントン大学の医師らが、AIチャットボット「ChatGPT」の食事アドバイスに従い、ブロミド中毒による精神病状態に陥った男性の症例を発表した。これは、AIの情報が文脈を欠いたまま提供され、深刻な健康被害を引き起こす可能性を示す警告的な事例として注目されている。症例は『内科学会臨床症例誌』に掲載され、2024年4月に公表された。 男性は3か月間、ChatGPTの指示で「塩分(塩化ナトリウム)の摂取を減らす」ために、ナトリウムブロミドを摂取していた。彼は大学時代に栄養学を学んでいた経験から、塩分の摂取を控えることに興味を持ち、AIに「塩分の代わりに何が使えるか」を尋ねた。その結果、AIは「塩化物はブロミドに置き換え可能」と回答。実際には、ブロミドは医療用として過去に使用されたが、高用量で長期摂取すると神経精神症状を引き起こす「ブロミズム」と呼ばれる中毒を引き起こすことが知られている。1980年代以降、医薬品からほぼ排除されたが、現在でも一部の獣医薬品やサプリメントに含まれる。 男性は、脱水症状や激しい不安、幻覚、妄想などの精神症状を発症。飲食物を拒否し、逃走を試みるなど、重度の精神的障害に陥り、入院して強制的な精神的保護措置(入院措置)を取られた。治療により、抗精神病薬と静脈輸液を投与し、3週間後に回復。2週間後のフォローアップでは安定した状態が確認された。 医師らは、AIが「文脈を無視した情報」を提供するリスクを指摘。特に、ブロミドの摂取が食事に適さないことを明記せず、なぜその質問をしているのかを確認しない点が問題だと指摘。実際、人間の医療専門家なら、このようなアドバイスを絶対にしないと強調している。 このケースは、AIが「正しい答え」を出しても、それが安全で適切かどうかを判断する責任はユーザーにあり、専門家の監督が不可欠であることを示している。AIは情報の橋渡しにはなるが、誤った解釈や危険な行動を誘発するリスクも伴う。最終的に、AIに頼るのではなく、信頼できる人間との相談が、現代の情報過多社会においても不可欠であることを改めて教えてくれる事例である。

Related Links