マイクロソフト、AI推論向け高性能新チップを発表
マイクロソフトは、AI推論(inference)を高速かつ効率的に行うことを目的とした新世代AIアクセラレータチップ「Maia 200」の発表を発表した。これは2023年に登場したMaia 100の後継モデルであり、1000億以上のトランジスタを搭載し、4ビット精度で10ペタフロップス、8ビット精度で約5ペタフロップスの演算性能を実現。前世代比で顕著な性能向上を達成しており、大規模AIモデルの実行に十分な余力を持つとされている。推論とは、学習済みのAIモデルを実行するプロセスであり、近年ではAIサービスの運用コストの主要な構成要素となっている。マイクロソフトは、Maia 200がこの推論コストの最適化に貢献し、電力消費を抑えることで、AIビジネスの安定運用を実現すると期待している。 Maia 200は、AI企業がNvidiaのGPUに依存するリスクを軽減する潮流の一環でもある。近年、GoogleのTPU、AmazonのTrainiumなど、テック大手が自社開発のAIチップを導入する動きが広がっている。特にAmazonは2023年12月にTrainium3を発表し、競争を加速。マイクロソフトは、Maia 200が第三世代Trainium比でFP4性能で3倍、Googleの第7世代TPU比でFP8性能を上回ると強調。これにより、自社のAIインフラ強化と、外部企業との競争力の維持を図る戦略を明確にしている。 実際、Maia 200はすでにマイクロソフトの「スーパインテリジェンスチーム」が開発する大規模モデルや、同社のAIアシスタント「Copilot」の運用を支えている。このチップは、開発者、学術機関、先端AIラボなどに対し、ソフトウェア開発キット(SDK)の提供を開始。実際のワークロードでの検証や応用を促進する狙いがある。 背景として、AIの商業化が進む中、推論の効率性は「コスト」と「スピード」の両面で企業の競争力に直結している。NvidiaのGPUは強力だが、供給制約や高コストが課題。そのため、自社チップ開発は、長期的なインフラの安定とコスト管理の鍵となる。マイクロソフトは、Maia 200を通じて、自社のAI戦略を内製化・最適化するだけでなく、外部との連携も視野に、AIインフラの多様化を推進している。業界関係者は、「マイクロソフトが自社チップでNvidiaの独占を打破する動きを加速させている」と指摘。今後、Maia 200の実用化が進むことで、AIの基盤技術の再編がさらに加速すると予想されている。
