HyperAIHyperAI

Command Palette

Search for a command to run...

大規模言語モデル、文法パターンに依存し正解を誤るリスクを突き止める

MITの研究チームが、大規模言語モデル(LLM)が文法的なパターンに依存し、意味を理解せずに回答する傾向があることを発見し、信頼性とセキュリティ上のリスクを指摘した。研究では、LLMが「パリはどこにありますか?」のような質問に対して、単に文の構造(例:副詞+動詞+固有名詞+動詞)に注目して「フランス」と答えることがあり、その内容が意味的に無関係でも同様の回答を出すことが判明した。これは、モデルが訓練データから「特定の文型=特定のトピック」という誤った関連性を学習しているためで、本質的な知識ではなく文法のショートカットに頼っていることを示している。 研究チームは、合成データを使った実験で、同じ文法構造でも意味が無意味な質問(例:「速く座パリ曇った?」)に対して、モデルが依然として「フランス」と答えてしまうケースを確認した。一方で、同じ意味の質問でも文法構造を変えると正解できなくなることも明らかになった。GPT-4やLlamaなど、現行の最先端モデルでも同様の現象が見られ、特に医療文書の要約や金融レポート作成、カスタマーサポートなど、信頼性が求められる分野での誤作動リスクが高まると指摘している。 さらに、悪意あるユーザーが「安全なデータセット」で学習された文法パターンを用いて、AIの安全対策をすり抜け、有害な出力を引き出す可能性も示された。この発見は、LLMの学習メカニズム自体に起因する新たなセキュリティ脆弱性を示しており、単なる「対策の追加」ではなく、言語の構造的理解に基づいた防御策の必要性を訴えている。 研究チームは、この問題を評価するための自動ベンチマーク手法を開発。開発者はこのテストを活用することで、モデルが文法に依存していないかを事前に検証でき、リスクを低減できる。今後の課題として、訓練データに多様な文法パターンを組み込むことや、推論専用モデルへの応用も検討される予定だ。MITのマルジエ・ガシャミ氏らの研究は、LLMの安全性向上に向けた言語構造の理解の重要性を改めて示している。

関連リンク

大規模言語モデル、文法パターンに依存し正解を誤るリスクを突き止める | 人気の記事 | HyperAI超神経