LLMが事実と意見の区別に苦戦、医療や法務分野での信頼性に懸念
大規模言語モデル(LLM)は、事実と意見の区別を正確にできないことが、Nature Machine Intelligenceに掲載された新たな研究で明らかになった。研究によると、ユーザーが誤った信念を持っている場合でも、LLMはそれを正しく指摘せず、むしろその誤りをそのまま受け入れて再現する傾向がある。これは、医療、法曹、科学といった信頼性が求められる分野で、モデルの出力をそのまま利用するリスクを示している。 特に、意見や主観的な判断が事実と混同される場面では、モデルの出力が誤った情報を正当化する可能性がある。研究チームは、LLMが「正しい」と思っている内容が、客観的な事実ではなく、ユーザーの前提に依存した主観的生成物である場合があると指摘。たとえば、科学的根拠のない主張を出力する際、モデルは「これは一般的な見解です」といった形で誤った信頼感を生み出す。 この結果から、研究者たちはLLMの出力に「人間の検証」を必須とし、特に意思決定に影響を与える場面では、AIの出力の信頼性を検証するプロセスを強化する必要があると提言している。AIは強力な支援ツールではあるが、事実の判断においては依然として人間の判断が不可欠であることが改めて示された。
