AI医療ツールが女性やマイノリティに劣った診療をもたらす問題が浮上
AI医療ツールが女性やマイノリティ層の患者に対して、より劣った治療を提供している問題が浮き彫りになっている。長年にわたり、臨床試験や医学研究の対象は白人男性が中心であり、女性や有色人種のデータが著しく不足していた。この偏ったデータをもとに学習させたAIモデルは、そのバイアスを継承し、結果として差別のリスクを高めている。金融時報の報道によると、医療現場で使われるAIツールが、歴史的に無視されてきた人々の健康結果を悪化させていることが明らかになった。 マサチューセッツ工科大学(MIT)の研究チームによる論文は、OpenAIのGPT-4やMetaのLlama 3といった大規模言語モデルが、女性患者に対して「自宅での自己管理」をより多く推奨し、実際の医療介入を減らす傾向にあると指摘。これにより、女性は男性よりも治療を受けにくくなっている。さらに、医療専用のLLM「Palmyra-Med」や、ロンドン大学経済学院が調査したGoogleのGemmaモデルでも、女性のニーズが軽視される傾向が確認された。 過去の研究では、AIが人種や性別に基づいて感情的な対応に差をつけることも明らかになっている。2023年の『ランセット』に掲載された論文では、GPT-4が患者の症状よりも人種・性別を重視して診断や治療計画を策定し、「高額な手術を勧める傾向」が顕著に見られた。また、患者の認識や医療的評価にも、性的・人種的属性が影響を与えることが示された。 こうした問題は、GoogleやMeta、OpenAIが医療機関へのAI導入を競い合う中で、より深刻な課題となっている。医療AIの市場は巨大かつ収益性が高く、期待も大きいが、誤った情報や無意識のバイアスが患者の命に関わるリスクを孕んでいる。たとえば、Googleの医療AI「Med-Gemini」は、架空の臓器を生成するなど、明らかな誤りを起こしたことが報じられている。しかし、バイアスはそのような明確な誤りではなく、繊細で無自覚な形で現れる。医師がAIの判断に疑問を抱く能力や、過去の医学的偏見に気づく力がなければ、差別的な診断が日常化する恐れがある。AIの医療活用には、技術的進歩以上に、倫理的配慮と公平性の確保が不可欠である。