MITが医療AIの記憶リスクを解明、患者情報漏洩の実態と評価手法を提言
MITの研究チームが、医療分野で活用が進むAIモデルが患者の個人情報を「記憶」してしまうリスクを調査した。同研究は、電子カルテ(EHR)データをもとに学習した大規模AIモデルが、意図せず患者固有の情報を保持し、外部に漏洩する可能性があることを明らかにした。この成果は2025年のNeurIPS会議で発表され、AIモデルのプライバシー保護評価に実用的なテスト手法を提案している。 研究を主導したマサヒエ・ガシャミ教授(MIT電気工学・コンピュータ科学部、MIT医療工学・科学研究所)と、ブロード研究所・エリック・アンド・ウェンディ・スミス・センターのポスドク・サナ・トネカボニ氏らは、AIが「一般化」するのではなく、特定の患者の記録を「記憶」して出力する「記憶化(memorization)」のリスクに注目。たとえば、ある患者の特徴的な検査値を入力するだけで、その患者の診断結果や病歴を特定できてしまう可能性がある。 研究チームは、攻撃者がどれほどの前提知識を持てば情報漏洩を引き起こせるかを検証するため、段階的な攻撃シナリオを設計。例えば、患者の検査日や値を複数知っている場合、漏洩リスクは高くなるが、それらの情報が既に入手可能ならAI攻撃の意義は薄れる。一方で、稀な疾患や特異な背景を持つ患者は、わずかな情報から特定されやすく、特に脆弱であると指摘。 また、漏洩内容の深刻度も評価。年齢や性別といった情報の漏えいは比較的軽微だが、HIV感染やアルコール依存症といった深刻な診断情報の漏えいは重大なプライバシー侵害となる。研究チームは、今後、臨床医やプライバシー専門家、法的専門家を含む多分野連携による評価体制の構築を目指している。 同研究は、医療AIの信頼性と倫理的利用の基盤を築く上で重要。MITの研究は、AIが「患者の秘密を守る」医療倫理の精神を損なわないよう、技術的・制度的対策を急ぐ必要性を訴えている。
