AI界の巨匠たちが語る「スケーリングの限界」:データ生成による新たな道筋
AI分野の先駆者たちが、モデルのスケーリング(規模拡大)の限界について議論を深めている。AIの「神父」と称されるジェフリー・ヒントン氏は、現在のチャットボットが自己生成データによる学習を始めることで、スケーリングの課題を克服できると予測した。ヒントン氏は、今後の大規模言語モデルが自己の信念の整合性を検証する推論を実行することで、新たなデータを生成できると説明。「AlphaGoやAlphaZeroが自分自身と対戦してデータを生み出すように、言語モデルも自己検証によってデータを創出するようになる」と述べた。 一方、OpenAI共同創業者のイルヤ・シュツケバー氏は、AI開発の重心が「スケーリング」から「研究」へと移行していると指摘。彼は、単に計算資源やデータを100倍にしても、すべてが劇的に変わるわけではないとし、「大きなコンピュータを持つ研究の時代に戻った」と語った。現在、スケーリングに依存する戦略の限界が浮き彫りになっており、Metaのスーパーアイの責任者であるアレクサンドル・ワン氏も「業界で最大の課題はスケーリング」と語っている。 Yann LeCun氏(元Meta首席AI科学者)も、データや計算資源の増加が自動的にAIの知能向上につながるとする見方を否定。「単に量を増やしても、より知的なAIにはならない」と強調。彼もまた、自身のAIスタートアップを設立している。 これに対し、Google DeepMindのデミス・ハサビスCEOは、スケーリングが人工一般知能(AGI)の実現に不可欠だと主張。「現在のシステムを最大限までスケーリングすることは、AGIの鍵となる可能性がある。あるいは、AGIそのものになるかもしれない」と述べ、スケーリングの価値を肯定している。 このように、AIの未来を巡る議論は、スケーリングの限界と研究の再評価という二面性を呈しており、技術の進展は「量」ではなく「質」と「自律性」の向上にかかっている。
