HyperAIHyperAI

Command Palette

Search for a command to run...

AIの「超知能」幻想に警鐘:言語モデルは思考の代用品ではない

Metaのマーク・ザッカーバーグ氏やOpenAIのサム・アルトマン氏らは、超人間の知能(AGI)の実現が2026年ごろに近づいていると予言。Dario Amodei氏は、AIがノーベル賞受賞者を上回る知能を持つ可能性すら示唆。しかし、こうした楽観論は、現行のAI技術の本質を誤解している。現行のチャットボット、たとえばChatGPTやClaude、Geminiなどは、すべて「大規模言語モデル(LLM)」に過ぎない。これらはインターネット上の膨大なテキストデータを収集し、単語や「トークン」の間の相関関係を学習し、入力されたプロンプトに応じて次に来る文を予測するだけの仕組みである。つまり、言語の「模倣」にすぎず、思考そのものではない。 この点を、MITのエベリーナ・フェドレンコ氏らが2023年に『ネイチャー』に発表した論文が明確に指摘している。人間の思考は言語とは別次元のものであり、言語は「思考の道具」にすぎない。言語を失っても、人間は数学的推論、感情理解、因果関係の把握など、高度な認知活動を維持できる。赤ちゃんが言語を学ぶ前から世界を観察・試行錯誤し、直感的な理論を構築していることからも、言語は思考の前提ではなく、結果の共有手段であることがわかる。 LLMは、人間の知能を模倣するどころか、そもそも言語以外の知能(例:身体的知識、空間認識、直感的推論)を再現できない。Yann LeCun氏らも、LLMの限界を認識し、物理世界を理解し、計画を立てる「世界モデル」の開発に注力。また、ヨシュア・ベンジオ氏らのグループも、AGIを「教育を受けた成人並みの認知の柔軟性」と定義し、複数の能力の統合を重視している。 しかし、こうした議論は「ゴールポストの変更」に過ぎず、実現への道筋は不明瞭だ。さらに重要なのは、AIは既存データに基づく「再編集」しかできない。科学的飛躍や新たなメタファーの創出といった、人間の創造性の根幹をなす「既存枠組みへの不満」を持つことはできない。結果として、AIは「死語の比喩」を蓄積するだけの「常識のアーカイブ」にすぎず、真の革新には寄与できない。 結論として、現行のLLMは、言語の力ではなく、思考そのものの再現ではない。超知能の実現には、言語モデルを超えた認知モデルの構築が必要であり、それはまだ道半ばにある。

関連リンク

AIの「超知能」幻想に警鐘:言語モデルは思考の代用品ではない | 人気の記事 | HyperAI超神経