2025年、AIの本質が変わった?チェーン・オブ・シンキングの真実とLLMの未来
2025年を締めくくるにあたり、AIの進展を振り返る中で、元Redis開発者であるantirez氏は、大規模言語モデル(LLM)に対する認識の転換に注目している。長年にわたり、一部の研究者たちはLLMを「確率的ピエロ(stochastic parrots)」と批判し、提示されたプロンプトの意味を理解せず、生成内容の構成も持たないと主張した。しかし2025年現在、そのような主張はほぼ消え去り、多くの専門家がこの立場を撤回している。 その背景には「連鎖的思考(Chain of Thought, CoT)」の普及がある。CoTは、単なる一連のトークン生成ではなく、モデル内部の表現空間での探索(内部検索)と、強化学習(RL)を用いた段階的出力の最適化を組み合わせたアプローチである。提示されたコンテキストに関連する情報が蓄積されると、モデルはより適切な応答に収束しやすくなる。さらに、RLによる可視化された報酬信号の導入により、スケーリングの限界が「トークン数」にとどまらなくなった。たとえば、コードの最適化など、明確な評価基準があるタスクでは、長期間にわたる改善が可能になる。 プログラマのAIへの抵抗は著しく低下。LLMが不完全な生成をすることもあろうが、実用的なコードやヒントの提供能力が飛躍的に向上し、投資対効果が認められるようになっている。開発者間では、LLMを「同僚」として扱う(例:GeminiやClaudeのWebインターフェースで対話)か、「独立したコーディングエージェント」として扱うかの分岐が見られる。 また、Transformerに代わる新たなアーキテクチャの開発が本格化。明示的な記号表現や世界モデルを備えたモデルの研究が、一部の著名なAI研究者によって推進されている。しかし、antirez氏は、LLMが離散的推論を微分可能空間で近似する「微分可能マシン」として、根本的な新パラダイムがなくてもAGIに到達する可能性は十分にあり得ると指摘。多様なアーキテクチャがAGIの実現に貢献する可能性を示唆する。 ARCテストの成績も、当初の「LLMの限界」を示す証拠から、LLMの能力を証明する指標へと転換。小規模モデルでもCoTを活用すれば高いパフォーマンスを発揮し、大規模モデルはさらに顕著な成果を上げている。このように、CoTはLLMの本質を変えるものではなく、既存のアーキテクチャの限界を広げたにすぎない。AIの次世代の課題は、技術の進化と人間の存続の両立——「絶滅の回避」にある。
