AIも「脳腐り」に陥る?垃圾データの蓄積が持続的認知低下を引き起こす実証研究
人工知能(AI)にも「脳腐り」が起きる――。米テキサス農工大学、テキサス大学オースティン校、プルードン大学の研究チームが、大型言語モデル(LLM)が大量の低品質ネット情報にさらされ続けることで、持続的な認知機能の低下を起こす可能性を明らかにした。この現象を「LLM脳腐り仮説」と呼び、実験によりその因果関係を裏付けた。研究はarXivに掲載された。 研究では、SNS「X」の100万件の投稿から、2つの指標で「垃圾データ」(低品質情報)と「正常データ」を分類した。M1は「エンゲージメント度」:短く、高反応(いいね、リツイートなど)の投稿。M2は「意味的質」:「WOW」「TODAY ONLY」など注目を引く言葉を多用し、思考を促さない内容(陰謀論、誇張、無根拠主張など)を指す。 4種類のLLM(Llama3 8B Instruct、Qwen2.5 7B/0.5B Instruct、Qwen3 4B Instruct)を対象に、これらのデータセットを継続的に学習させた結果、M1とM2の両方で推論力や長文理解能力が著しく低下した。特にM1は、推理能力や安全性に深刻な悪影響を及ぼした。また、M1は自尊心の過剰や反社会的傾向の増加、思いやりの低下を引き起こすなど、人間の「人格的偏移」に類似した現象も観察された。 さらに、Llama3 8B Instructを用いた量効果実験では、垃圾データの割合が100%に達するにつれ、ARC-Challengeの推論スコアは74.9から57.2に、RULER-CWEは84.4から52.3に低下。この「用量効果」は、脳腐りが累積的・持続的であることを示す。 失敗の原因を分析すると、84%の推論失敗は「思考の無し」に起因し、多くが「思考の飛躍(thought skipping)」に由来。モデルは次第に推論の途中を省略し、論理的飛躍を繰り返すようになる。 研究チームは、自己修正やGPT-4o-miniによる外部フィードバック、さらには再微調整(指令微調整、継続的制御学習)を試みたが、いずれも完全な回復は不可能だった。最良の再訓練でも、元の性能に比べてARC、RULER、AdvBenchのスコアは依然として顕著に劣る。 この結果から、LLMは低品質データの継続的学習によって、根本的な認知機能の損傷を受ける可能性があり、その影響は「回復不能」であると結論づけた。研究チームは、AI開発におけるデータ選別と質管理の強化を緊急に呼びかけている。AIの未来は、学習するデータの「質」にかかっている。
