AIによる自殺予測アルゴリズムの限界が判明 精度は従来のスケールと同等
人工知能(AI)を活用した機械学習アルゴリズムが自殺や自傷行動を予測する能力は、臨床現場でのスクリーニングや高リスク者への優先的介入に十分な精度を備えていないことが、9月11日に『PLOS Medicine』に発表された研究で明らかになった。メルボルン大学のマシュー・スピタール氏らの研究チームは、過去53の研究を包括的レビューし、3500万件以上の電子医療記録と約25万件の自殺・自傷入院事例を分析した。 その結果、アルゴリズムは「低リスク」と判定された人のうち、実際に自傷や自殺を繰り返した人の半数以上(50%以上)が誤って低リスクと分類されていた。一方、高リスクとされた人々のうち、実際に自殺したのはわずか6%、再入院したのは20%未満にとどまった。つまり、AIは「誰が安全か」を識別するには効果的だが、「誰が危険か」を正しく見極める能力は極めて低いことが判明した。 研究チームは、AIアルゴリズムの予測性能が従来のリスク評価尺度と同等であり、むしろ多くの研究が偏りの高い品質だったと指摘。臨床ガイドラインで自殺リスク評価を介入の根拠として使用することを強く推奨していない国々も少なくない中、AIの導入によってガイドラインを変える根拠は「まったくない」と結論づけた。 スピタール氏らは、「AIによる予測は現状では信頼できず、臨床現場での実用化にはまだ時期尚早。むしろ、従来のリスク評価ツールと同程度の精度にとどまっている」と警告。自殺予防のための技術開発は進むが、人間の判断と支援の重要性は依然として不可欠であると強調している。
