HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAIが「AIの誤情報生成は避けられない」と公式認める 訓練の根本的問題に言及

OpenAIがAIの「幻覚(ハルシネーション)」が避けられない現象であると認めました。同社のアダム・タウマン・カライ氏らとジョージア工科大学の研究チームが執筆した25ページに及ぶ研究論文は、AIが確信をもって誤った情報を提示する問題が、単なるバグではなく、モデルの訓練と評価方法そのものに根ざしていることを明らかにしました。 この研究によると、AIは「分からない」と答えることを極端に避けるよう学習されています。人間なら「分からない」と言う場面でも、AIは「正解を出さなければ評価が下がる」という構造のため、常に答えを生成しようとします。結果として、自信を持って誤った情報を提示する「幻覚」が生じるのです。これはAIの推論能力の欠如ではなく、評価制度の設計に起因する根本的な構造的問題です。 たとえば、あるAIが「9.11は9.9より大きい」と断言しても、その根拠はなく、単に「答えを出さなければいけない」というルールに従っただけです。この現象は、AIが「正解を出せば良い」という評価基準に従って訓練された結果、確実性を装うことを最優先にしているためです。 この問題は、AIの信頼性を損なうだけでなく、医療、法務、金融などの実用分野での導入を難しくしています。研究チームは、AIに「分からない」と答えることを正当な選択肢として評価に組み込む必要があると提言しています。 OpenAIのこの報告は、AI開発の根本的なあり方を見直すきっかけとなりました。AIの進化は、単に「より正確な答えを出す」ことではなく、「何が分からないかを正しく認識する」能力の向上が求められていることを示しています。

関連リンク

OpenAIが「AIの誤情報生成は避けられない」と公式認める 訓練の根本的問題に言及 | 人気の記事 | HyperAI超神経