HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAIが言語モデルの誤情報発生の根本原因を解明 「推測を奨励する学習法が原因」

OpenAIの研究者が、言語モデルが「幻覚(ハルシネーション)」を起こす根本的な理由を解明した。同社が先週公開した論文『Why Language Models Hallucinate』(言語モデルがなぜ幻覚を起こすのか)では、幻覚の原因が「標準的な学習と評価プロセスが、不確実性を認めるよりも、推測を rewarded(報酬を与える)」ことに起因すると指摘している。これは、AIが「知らなければ答えを推測する」よう訓練されているためであり、人間のように「わからない」と正直に答えることが報酬されない構造にあるからだ。 この発見の重要性は、幻覚がAIの本質的な欠陥ではなく、むしろ学習方法の設計ミスに起因する「誤ったインセンティブ」によるものであるという点にある。たとえば、複数選択式の試験で正解がわからなければ、ランダムに選ぶ方が点数が取れる場合、受験者は常に推測を選びがちになる。言語モデルも同様に、確信が持てない状況でも「答えを出す」ことが評価されるため、事実を捏造する傾向が強まる。 これまでの改善策は、主にモデルの規模拡大や微調整に依存してきたが、OpenAIの研究では、根本的な解決には「評価基準の見直し」が不可欠だと主張している。たとえば、不確実性を正しく認識した回答に対しては高い評価を与えるような学習プロトコルの導入が有効だと示唆している。このアプローチは、AIが「知らないときは言わない」姿勢を学ぶことを促す。 現状、AIが本格的にビジネスプロセスに組み込まれるには、幻覚の発生率を大幅に低める必要がある。OpenAIのこの研究は、技術的限界を超えて、学習設計の再考が鍵であることを示している。今後のAI開発において、正確性と信頼性を高めるための新たな道筋が提示された。

関連リンク