Command Palette
Search for a command to run...
Emma Kondrup Anne Imouza

要約
大規模言語モデル(LLM)の急速な進展により、一般市民は、個人に合わせた形で大多数の健康関連質問に答えることができるアプリケーションに、手頃なコストで容易にアクセスできるようになっている。これらのLLMは、医療分野における能力において、ますます競争力を発揮しており、一部の分野では専門家を上回るまでになっている。特にリソースが限られた環境において、広くアクセス可能で準無料に近い医療支援を提供する可能性を備える点で、大きな期待が寄せられている。しかし、こうした期待を後押しする評価は、医療の社会的側面に関する洞察を著しく欠いており、社会的グループ間の健康格差や、バイアスがLLMが生成する医療アドバイスにどのように反映され、利用者にどのような影響を及ぼすかについて無関心である。本研究では、性別、年齢層、人種が異なる複数の患者像を想定し、主要な臨床分野にわたる医療質問に対してLLMが生成する回答を探索的に分析した。生成された回答の自然言語的特徴を比較することで、LLMが医療アドバイスを生成する際、社会的グループごとに体系的に異なる回答が生成されることを示した。特に、先住民およびインターセックスの患者に対しては、読みにくく、より複雑なアドバイスが提供される傾向が見られた。また、交差的(インターセクショナリティを考慮した)グループを分析した場合には、こうした傾向がさらに顕著になった。こうしたモデルに対する個人の信頼が高まる中で、我々はAIリテラシーの向上と、AI開発者による即時かつ継続的な調査・是正の必要性を主張する。こうしたシステム的な差異が解消され、不公正な患者支援につながるのを防ぐためである。本研究のコードはGitHub上で公開されている。