HyperAI超神経
Back to Headlines

研究:医療アドバイスのためのチャットボット利用に課題、信頼性と精度に疑問

14日前

医療アドバイスにAIチャットボットへの依存が増加、しかし課題も浮上 医療待合リストの長さやコスト上昇により、多くの人々がAIチャットボットを活用して自身の症状を判断するようになっています。最近の大規模調査では、1割以上のアメリカ成人がチャットボットから月に一度以上健康アドバイスを受けていることが明らかになりました。 しかし、オックスフォード大主導の最新研究によると、チャットボットからのアドバイスに過度に頼って良い判断を下すにはリスクが伴う可能性があります。この研究では、医師らが作成した医療状況のシナリオに基づき、1300人の英国市民が潜在的な病気の特定を試みました。参加者は、ChatGPTの基盤となるGPT-4、Cohere社のCommand R+、およびMeta社のLlama 3を使って、適切な対処法(診察の必要性や入院の可否)を特定することを依頼されました。 研究結果は、チャットボットを使用したグループが、従来のインターネット検索や自己判断に頼ったグループよりも適切な病気を特定しにくいことが明らかとなりました。さらに、チャットボットが提供したアドバイスが参加者に病状の深刻さの理解を難しくさせ、誤った行動を取らせていたケースも多かったとのことです。 Oxford Internet InstituteのAdam Mahdi教授は、これらの結果について次のように述べています。「人々がチャットボットに問い合わせる際に重要な情報を省略したり、受け取った回答を解釈するのが困難だったのです。彼らが得た結果は、良質なものと低品質なものの組み合わせでした。」現在の評価手法では、ユーザーやチャットボット間の複雑な相互作用が反映されていないとMahdi教授は指摘しています。 テクノロジー企業は、AIを用いて健康問題の解決を促進する方法に積極的に取り組んでいます。Appleは運動、食事、睡眠に関連したアドバイスを提供するAIツールの開発を進め、Amazonは「社会的な健康影響因子」を分析するAIベースのシステムを検討中です。Microsoftも患者からのメッセージを医療提供者が対応しやすく整理するためのAIの開発をサポートしています。 しかし、AIが未だ高リスクの医療アプリケーションに適しているかどうかについては、専門家と患者の間に意見の分かれるところがあります。アメリカ医師会は、医師がチャットボットのようなAIを臨床判断の補助に利用することは推奨していません。また、OpenAIなどの主要AI企業も、診断や治疗にAIチャットボットの出力に基づくことを警告しています。 「健康上の決定においては信頼できる情報源に頼るべきです」とMahdi教授は勧めています。「新薬の临床試験のように、チャットボットのシステムも実世界でのテストを経てから利用されるべきです。」

Related Links