AIの「世界モデル」再注目:単なるヒューリスティクスか、AGIへの鍵か?
人工知能(AI)研究の新たな注目テーマとして、「世界モデル」の復活が注目されている。これは、AIが外部環境を内部で簡略化したシミュレーションとして保持する「計算上のスノーボール」のような構造で、実世界のタスクに取り組む前に予測や意思決定を試すことができる。Metaのヤン・レクン、DeepMindのデミス・ハサビス、モントリオール大学のヨシュア・ベンジオといったAI分野の重鎮たちは、真の知能を持つ人工一般知能(AGI)の実現には世界モデルが不可欠だと考えている。 このアイデアの起源は1943年、スコットランドの心理学者ケネス・クレイクが提唱した「精神内的モデル」にさかのぼる。彼は、人間が外部現実の「小規模なモデル」を頭の中に持つことで、実際に実験しなくても安全に行動できると述べた。この考えは後の認知科学の基盤となり、知覚と計算の関係を明確にした。 しかし、1960年代のAIシステム「SHRDLU」のような手作りのモデルは、現実世界の複雑さに対応できず、1980年代にはロデイ・ブルックスらが「世界は自らが最良のモデルだ」として世界モデルの否定を主張した。その後、深層学習の発展により、ニューラルネットワークが訓練データから環境の近似を学習する仕組みが可能になり、世界モデルの再評価が進んだ。 特に、チャットボットの背後にある大規模言語モデル(LLM)が意図しない能力を示す現象(例:絵文字から映画タイトルを推測)が、世界モデルの存在を示唆するものとされた。しかし、実際にはLLMは「ヒューリスティクスの束」——互いに矛盾する経験則の集合——を学習しているにすぎず、一貫した世界像を内包していない。たとえば、マンハッタンの道順を生成するAIは、街路網の全体像を理解しているわけではなく、断片的な経験則の組み合わせで動いている。 このため、わずかな変化(例:1%の道路閉鎖)に弱く、性能が急落する。世界モデルがあれば、一貫した地図としての理解を持ち、障害物を回避できる。そのため、世界モデルの開発は、AIの誤答(ハルシネーション)の抑制、論理的推論の強化、解釈可能性の向上に不可欠とされ、各研究機関が全力で取り組んでいる。 方法論はまだ不透明。DeepMindやOpenAIは多様なデータ(動画、3Dシミュレーションなど)による訓練でモデルの自発的生成を期待するが、MetaのLeCunは新しい非生成型アーキテクチャの開発を主張する。AGIの実現に向けた「世界モデル」の開発は、まだ試行錯誤の段階だが、その価値は、AIの信頼性と安全性を高める鍵となる可能性を秘めている。