ChatGPT Healthで医療記録をAIと連携、ただし生成内容に注意が必要
OpenAIが新たに導入した「ChatGPT Health」機能は、ユーザーが医療情報やウェルネス記録をAIチャットボットと連携できる仕組みを提供するが、その実装に重大なリスクが伴っている。この機能により、ユーザーは電子カルテや健康データをアップロードし、AIが診断や健康アドバイスを生成できるようにする。しかし、実際には現行のAIモデルは正確な医学的知識を保証せず、誤った情報を「作り出す」リスクが極めて高い。特に、医学的な判断に影響を与える情報の誤解や、誤った推奨がユーザーに悪影響を及ぼす可能性がある。 OpenAIはこの機能の利用にあたって、ユーザーがデータの取り扱いについて十分な理解を持つよう呼びかけているが、実際にはAIが「幻覚(hallucination)」を起こすケースが頻発しており、これは医療現場において致命的な結果を招く可能性がある。例えば、あるユーザーが過去の診断データを入力しても、AIが存在しない疾患を提示したり、誤った治療法を提案するといった事例が報告されている。 こうしたリスクにもかかわらず、OpenAIはユーザーの健康管理支援という新たな市場への進出を進めている。ただし、現時点では医療専門家の監督や臨床的な検証が行われていないため、医療情報のAI処理には極めて慎重な姿勢が求められる。専門家は「AIは補助ツールとしての役割にとどめるべきであり、診断や治療の決定には人間の判断が必要」と強く警告している。 結論として、ChatGPT Healthは技術的な可能性を示しているものの、安全性と信頼性の確保が未だ課題であり、ユーザーは自身の健康情報をAIに依存する前に、専門家と相談する必要がある。OpenAIは、今後の開発において、医療AIの信頼性と透明性を高める対策を急ぐべきだ。
