HyperAI超神経
Back to Headlines

NVIDIAとGoogleのパートナーシップが加速、BlackwellとGeminiの最新発表で注目 NVIDIAとGoogleは、AIイノベーションの推進と世界中の開発者コミュニティへの支援を目的とした長年のパートナーシップを展開しています。この協力はインフラを超えて、計算スタックの最適化を深めるエンジニアリング協力にも及んでいます。 最新の共同イノベーション:JAX、OpenXLA、MaxText、llm-dの最適化 両社の最新の成果には、JAX、OpenXLA、MaxText、llm-dなどのコミュニティソフトウェアへの重要な貢献が含まれます。これらの基礎的な最適化により、Googleの最先端GeminiモデルとオープンソースのGemmaファミリーの提供が直接サポートされています。 NVIDIA Blackwell、Google Cloud上で本格稼働開始 Google Cloudは、NVIDIA HGX B200とNVIDIA GB200 NVL72を搭載したA4とA4X仮想マシン(VM)を最初に提供したクラウドサービスプロバイダーです。これらの新VMは、Vertex AIやGoogle Kubernetes Engine(GKE)などの管理サービスを通じて利用可能で、大規模なエージェンティックAIアプリケーションの開発と展開を可能にします。 Google Gemini、NVIDIA BlackwellとGoogle Distributed Cloudの組み合わせでオンプレミス展開可能に Geminiの高度な推論能力はすでにクラウドベースのエージェンティックAIアプリケーションを支えていますが、公的機関、ヘルスケア、金融業界など、厳格なデータ居住制約や規制、セキュリティ要件を持つ顧客は利用できませんでした。NVIDIA BlackwellプラットフォームがGoogle Distributed Cloudに導入されることで、これらの顧客も自社データセンター内でGeminiモデルを安全に展開することが可能になります。 AI推論性能の最適化:GeminiとGemmaの効率的な実行 Geminiファミリーは、複雑な推論、コーディング、マルチモーダル理解に優れたGoogleの最新かつ最も多様なAIモデルです。NVIDIAとGoogleは、特にVertex AIプラットフォーム上でNVIDIA GPUを使用したGeminiベースの推論ワークロードの効率的な実行に向けた性能最適化に取り組んでいます。これにより、ユーザーの問い合わせが効率的に処理され、幅広いデプロイメントアーキテクチャに対応した先進的なAIが開発者に提供されます。 強固な開発者コミュニティとエコシステムの構築 NVIDIAとGoogle Cloudは、開発者コミュニティの支援にも力を入れています。JAXのスケーリングと性能向上をBlackwell GPU上で実現することで、AIワークロードの効率的な実行を可能にします。また、両社は新たな共同開発者コミュニティを立ち上げ、専門家同士の交流を促進し、クロススキルとイノベーションを加速しています。 このパートナーシップにより、開発者が次世代AIアプリケーションの構築、スケーリング、展開をより容易に行える環境が整いました。

2ヶ月前

NVIDIAとGoogleの提携が、AIイノベーションと開発者コミュニティの強化に向けた勢いを増している。両社の連携は、AIの基盤となる各種ソフトウェアの最適化や、Google Cloudとの統合を通じて実現している。 このパートナーシップの最新のイノベーションには、 Cộng đồng phần mềm JAX, OpenXLA, MaxTextおよびllm-dなどの主要プロジェクトへの寄与がある。これらはGoogleの最先端モデルGeminiとGemmaファミリーの運用を直接支援するために作られており、性能最適化されたNVIDIA AIソフトウェア(NeMo, TensorRT-LLM, Dynamo, NIMマイクロサービス)は、Vertex AIやGoogle Kubernetes Engine (GKE)、Cloud RunといったGoogle Cloudのサービスと緊密に統合されており、AIのパフォーマンス向上と導入の簡略化を加速させている。 NVIDIA BlackwellのGoogle Cloudへの導入 Google Cloudは、同業他社に先駆けてNVIDIA HGX B200とNVIDIA GB200 NVL72を搭載したA4とA4X VMを導入した。A4 VMはNVIDIA HGX B200による加速を受けて既に一般提供が開始されている。一方、A4X VMはJupiterネットワーク構造とNVIDIA ConnectX-7 NICの高度なネットワーキングにより、1ラックあたり1エクサフロップ以上の計算力を提供し、何万ものGPUへのスケーリングを実現している。第3世代の液体冷却インフラにより、最大級のAIワークロードでも持続的かつ効率的なパフォーマンスが達成できる。 Google Geminiのオンプレミス展開 Geminiは高度な推理能力を持つCloudベースのエージェント型AIアプリケーションを支えてきたが、公的部門、医療、金融サービス分野の某些客は、データの居住性、規制、セキュリティの制約により利用できなかった。しかし、NVIDIA BlackwellプラットフォームがGoogle Distributed Cloud(オンプレミス環境、エアギャップ環境、エッジに対応した完全なマネージドソリューション)に導入されることで、これらの顧客も自社のデータセンター内でGeminiモデルを安全に展開可能となり、プライバシーと規制の最高基準を満たしつつ次の世代のエージェント型AIを利用できるようになる。 AI推論性能の最大化 Geminiファミリーは複雑な推論、コーディング、マルチモーダル理解に優れた、Googleの最も先進的かつ多用途なAIモデルである。NVIDIAとGoogleは、Vertex AIプラットフォーム上の NVIDIA GPUでGeminiに基づく推論ワークロードが効率的に動作するように最適化をしている。これにより、多数のユーザクエリをNVIDIAの高速インフラ上で処理可能となった。 また、軽量オープンモデルのGemmaファミリーは、TensorRT-LLMライブラリの使用により推論効率が最適化され、データセンタからローカルのNVIDIA RTX搭載PCやワークステーションまで、さまざまな展開環境で簡単に導入可能なNVIDIA NIMマイクロサービスとして提供される予定だ。 開発者コミュニティとエコシステムの強化 NVIDIAとGoogle Cloudは、JAXなどのオープンソースフレームワークのスケーラビリティと性能向上をBlackwell GPUで実現するために協力している。さらに、互いにスキルを補完し合い、イノベーションを加速させるための新しい共同開発者コミュニティを立ち上げた。 エンジニアリングの優秀性、オープンソースでの指導力、活気ある開発者エコシステムを組み合わせることで、両社は次世代AIアプリケーションの構築、拡大、展開をこれまでになく容易にしている。このパートナーシップにより、技術的な側面だけでなく開発者のスキルアップや共同開発も促進され、AIの進化を加速させている。 業界関係者は、NVIDIAの高性能GPUとGoogleの高度なクラウド技術の組み合わせが、企業におけるAIの安全性と効率性を大幅に向上させると指摘。また、Google Distributed Cloudの導入により、より多くの企業が次世代AI技術にアクセスし、革新的なサービスを開発する機会を得られると期待している。

Related Links