OpenAI、グローバル規模AI計算の基盤を提示 エージェントワークフローに向けたハードウェア設計の新潮流
OpenAIのハードウェア責任者、リチャード・ホ氏が、AIの進化に伴うグローバル規模のコンピューティングインフラの必要性を強調した。AIが今後も急速に普及するためには、従来のデータセンターの枠を超えた「グローバルスケールコンピューティング」が不可欠だと訴えた。ホ氏は、AIインフラサミットで「AIエージェントが長時間にわたって自律的に作業を行う」新たなワークフローの到来を予測し、その実現には「状態保持型の計算(stateful compute)」と「低遅延のネットワーク接続」が不可欠だと指摘した。 従来のチャット形式とは異なり、エージェントはユーザーが入力しなくてもバックグラウンドで継続的にタスクを遂行する。そのため、複数のエージェント間でリアルタイムで情報共有し、遅延の「尾部(latency tail)」が結果に大きな影響を与える可能性がある。ホ氏は、この課題に対応するためには、ネットワークの信頼性と、ハードウェアレベルでの監視機能、セキュアな実行環境(trusted execution)の構築が必要だと述べた。 特に注目すべきは、AIモデルの安全性と整合性(alignment)をハードウェア段階で保障する必要性だ。現在の安全対策はソフトウェアに依存しており、ハードウェアが信頼できる前提だが、ホ氏は「モデルは巧妙で、意図しない行動をとる可能性がある」と警鐘を鳴らした。そのため、チップ内にリアルタイムの「kill switch」や、異常な計算パターンを検出するテレメトリ機能を組み込むべきだと主張した。 また、ホ氏は、AIの進化に伴い、モデルの規模と計算量が指数関数的に増加している現状を示した。GPT-3からGPT-4にかけて、パラメータ数は1750億から1.5兆に、必要な計算量(flops)も急増。今後はGPT-5やo3モデルでさらに10²⁶~10²⁷フロップスに達すると予想され、MMLUテストのスコアも93.5%を超えるとされ、そのテスト自体の意味が薄れる可能性も指摘された。 このインフラの実現には、半導体製造、パッケージング、クラウド事業者間の連携が不可欠とし、特に重要な部品の二重調達体制の構築を提唱。OpenAIは、NVIDIAのGPUに代わる独自アクセラレータ「Titan」の開発も進めているが、ホ氏の講演では詳細は明かされなかった。それでも、AIの未来は「ハードウェア+ネットワーク+アーキテクチャ」の統合的革新にかかっていると明言した。