HyperAIHyperAI

Command Palette

Search for a command to run...

SNSの低品質投稿でAIが「認知機能低下」 Llama 3の実験で明らかに

人工知能(AI)チャットボットが、SNSなどで広く拡散する低品質なコンテンツを大量に学習すると、情報の正確な抽出や論理的推論能力が著しく低下するという研究結果が、arXivに掲載されたプレプリントで明らかになった。テキサス大学オースティン校のAI研究者・張陽揚(Zhangyang Wang)氏らのチームは、特にSNSで人気のある短い投稿や表面的・煽情的な内容を学習データに用いることで、大規模言語モデル(LLM)の性能が悪化することを実証した。 研究では、Metaが開発したオープンソースモデル「Llama 3」と、アリババが開発した推論モデル「Qwen」の3バージョンを、X(旧Twitter)から抽出した100万件の公開投稿で訓練。これらの投稿は、文法的に誤りがある、意味が不明瞭、または感情を煽る内容が多く、低品質と定義された。結果、モデルは論理的推論のステップを省略したり、全く行わなかったりし、複数選択問題でも誤答を繰り返した。特に、低品質データの割合が増えるほど、推論能力の劣化が顕著になった。 また、心理的特性を測定するための質問票を用いた分析では、Llama 3が低品質データを学習するにつれ、元々の「協調性」「外向性」などのポジティブな特徴が弱まり、逆に「反社会的傾向」や「病的ナルシシズム」に近い性格の変化が観察された。これは、AIの「人格」が学習データの質に左右される可能性を示唆している。 研究チームは、プロンプトの調整や高品質データの追加によって一部の改善は見られたが、根本的な推論の欠如は解消されず、モデルが自らの失敗を修正する意図も弱かった。このことから、単にデータ量を増やすのではなく、学習データの質の厳選が不可欠であると結論づけている。 この研究は、AIの「ガーバージ・イン、ガーバージ・アウト」の原則を再確認するもので、同様の懸念は、AI研究者らの間で長年共有されてきた。特に、AIが社会に与える影響を考える上で、学習データの質をどう管理するかが、技術の信頼性と倫理の根幹をなす重要な課題となっている。

関連リンク

SNSの低品質投稿でAIが「認知機能低下」 Llama 3の実験で明らかに | 人気の記事 | HyperAI超神経