AIの「通用人工知能(AGI)到達までに10年」――カルパシーが指摘する知能体の3大認知欠陥と、技術進展の現実解釈
AIの将来に警鐘を鳴らす、OpenAI共同創業者で元テスラAI総監のアンドレイ・カーパティ氏。彼は、Y Combinatorの「Dwarkesh Patel」のポッドキャストで長時間の対談を行い、AGI(汎用人工知能)の実現には「まだ10年はかかる」と明言した。この「10年」という期間は、楽観的ではあるが、現実の技術的限界を正しく認識した冷静な見通しを示している。 カーパティ氏は、近年のLLM(大規模言語モデル)の進歩に加え、AIがコード生成や意思決定に活用されるようになり、「AGIが近い」との声が広がっているが、その期待は過剰であると指摘。彼は、AIの「三つの根本的認知欠陥」——持続的学習の不可性、多様な状況への適応力の不足、そして「無音の崩壊(silent failure)」——が、AIが人間の代替として機能するには依然として遠いことを示している。 特に、AIが「カスタマイズされたコード」を理解できない点に注目。彼が独自に開発した「nanochat」の実装では、標準ライブラリを使わず、自前で同期処理を設計したが、AIはその意図を理解できず、誤って標準APIに戻すよう強要。また、AIは「過剰なエラー処理」や「非推奨API」の使用を繰り返し、コードが肥大化。さらに、自然言語による「Vibe Coding」は、実際の開発効率を下げるばかりで、人間の入力の前半部分で自動補完を活用する方が圧倒的に効果的だった。 彼は、AIは「優れたコンパイラ」や「構文強調」の延長にすぎず、自律的なプログラマーではないと明言。AIの成長は、自動運転の開発と同様に、「90%」から「99%」、そして「99.9%」への到達に、それぞれ同程度の労力が必要な「三つの9」の法則に従う。10年単位の時間と、段階的な積み重ねが不可欠だ。 また、強化学習(RL)は、信号が希薄で誤った答えが報酬されるリスクがあると批判。代わりに、システムプロンプト学習やエージェント間の対話型学習を重視。モデルの「記憶」を制限し、抽象化能力を高める「Cognitive Core」の概念も提唱。記憶が多すぎると「再現」に終始し、理解が浅くなるため、むしろ「小さくする」ことで強化されるという逆説的な洞察だ。 経済への影響についても、彼は「AGIによる経済爆発は起きない」と予測。過去のコンピュータやインターネットの進化と同様、AIも「2%のGDP成長曲線」に自然に溶け込む。技術革新は劇的だが、その影響は緩やかに広がる。 最後に、彼は「Eureka」と名付けた教育プロジェクトを立ち上げ、人間の知的進化を後押しする。AIが学びの「摩擦」を消すことで、学ぶこと自体が「趣味」になり、人間は「超人化」する未来を描く。AIは脅威ではなく、人間の能力を拡張する道具である。
