HyperAI
Back to Headlines

NVIDIA et Google renforcent leur partenariat avec les annonces de Blackwell et Gemini pour accélérer l'IA à grande échelle

il y a 2 mois

NVIDIA et Google intensifient leur partenariat avec les annonces récentes sur Blackwell et Gemini NVIDIA et Google entretiennent une relation historique basée sur l'innovation en intelligence artificielle (IA) et l'empowerment de la communauté des développeurs à l'échelle mondiale. Ce partenariat dépasse le cadre de l'infrastructure, intégrant une collaboration technique profonde pour optimiser l'ensemble du stack de calcul. Innovations marquantes Les dernières innovations issues de ce partenariat incluent des contributions importantes à des projets logiciels communautaires tels que JAX, OpenXLA, MaxText et llm-d. Ces optimisations fondamentales facilitent directement le déploiement des modèles d'IA de pointe de Google, notamment les modèles Gemini et la famille Gemma. Par exemple, des logiciels d'IA optimisés en performance comme NVIDIA NeMo, NVIDIA TensorRT-LLM, NVIDIA Dynamo et NVIDIA NIM microservices sont étroitement intégrés à Google Cloud, y compris aux plateformes Vertex AI, Google Kubernetes Engine (GKE) et Cloud Run. Cette intégration accélère les performances et simplifie les déploiements d'IA. NVIDIA Blackwell en production sur Google Cloud Google Cloud est le premier fournisseur de services cloud à offrir à la fois les configurations NVIDIA HGX B200 et NVIDIA GB200 NVL7 via ses machines virtuelles (VM) A4 et A4X. Ces nouvelles configurations, combinées à l'architecture d'AI Hypercomputer de Google Cloud, sont accessibles par le biais de services gérés tels que Vertex AI et GKE, offrant aux organisations la flexibilité pour développer et déployer des applications d'IA agente à grande échelle. Les VM A4 de Google Cloud, accélérées par les configurations NVIDIA HGX B200, sont désormais disponibles en général. Les VM A4X de Google Cloud, quant à elles, offrent plus d'une exaflop de calcul par rack et supportent une mise à l'échelle transparente à plusieurs dizaines de milliers de GPU. Cela est rendu possible grâce au réseau Jupiter de Google et aux capacités avancées de réseau fournies par les NICs NVIDIA ConnectX-7. L'infrastructure de refroidissement liquide de troisième génération de Google assure des performances durables et efficaces, même pour les plus gros travailleurs d'IA. Déploiement local de Google Gemini avec NVIDIA Blackwell sur Google Distributed Cloud Bien que les capacités d'IA avancée de Gemini soient déjà utilisées pour des applications basées sur le cloud, certains clients du secteur public, de la santé et des services financiers dotés de requis stricts en matière de résidence des données, de réglementation ou de sécurité n'ont pas encore pu bénéficier de cette technologie. Avec l'introduction des plateformes NVIDIA Blackwell sur Google Distributed Cloud, une solution gérée de bout en bout pour les environnements locaux, les environnements sans connexion Internet et le bord, ces organisations pourront désormais déployer les modèles Gemini de manière sécurisée dans leurs propre centres de données. Ce déploiement est rendu possible grâce aux performances exceptionnelles et aux capacités de calcul confidentiel de NVIDIA Blackwell, garantissant que les demandes des utilisateurs et les données d'affinement demeurent protégées. Ainsi, les clients peuvent innover avec Gemini tout en conservant un contrôle total sur leurs informations, répondant aux normes les plus élevées de confidentialité et de conformité. Google Distributed Cloud étend la portée de Gemini, permettant à un plus grand nombre d'organisations d'exploiter l'IA agente de nouvelle génération. Optimisation des performances d'inférence pour Google Gemini et Gemma La famille de modèles Gemini de Google, conçue pour l'ère de l'IA agente, représente l'IA la plus avancée et la plus polyvalente jusqu'à présent. Ces modèles se distinguent par leurs capacité à traiter des raisonnements complexes, à coder et à comprendre les contenus multimodaux. NVIDIA et Google ont collaboré pour optimiser les performances des charges de travail d'inférence basées sur Gemini, notamment sur la plateforme Vertex AI de Google Cloud. Cela permet à Google de servir une quantité significative de requêtes utilisateur pour les modèles Gemini sur une infrastructure accélérée par NVIDIA, qu'elle soit déployée sur Vertex AI ou Google Distributed Cloud. De plus, la famille de modèles Gemma, des modèles légers et ouverts, a été optimisée pour l'inférence à l'aide de la bibliothèque NVIDIA TensorRT-LLM. Ils devraient être proposés sous forme de microservices NVIDIA NIM faciles à déployer. Ces optimisations maximisent les performances et rendent l'IA avancée plus accessible aux développeurs, qui peuvent exécuter leurs charges de travail sur diverses architectures de déploiement, allant des centres de données aux PC et stations de travail équipés de NVIDIA RTX. Construction d'une forte communauté de développeurs et d'un écosystème NVIDIA et Google Cloud contribuent également à soutenir la communauté des développeurs en optimisant des frameworks open source comme JAX pour une mise à l'échelle transparente et des performances exceptionnelles sur les GPU Blackwell. Ces efforts facilitent l'exécution efficace des charges de travail d'IA sur des dizaines de milliers de nœuds. La collaboration ne s'arrête pas là. Un nouveau programme communautaire conjoint entre Google Cloud et NVIDIA a été lancé, rassemblant des experts et des pairs pour accélérer l'interdisciplinarité et l'innovation. En combinant l'excellence technique, le leadership open source et un écosystème de développeurs dynamique, les deux entreprises rendent la construction, l'échelle et le déploiement de la prochaine génération d'applications d'IA plus simples que jamais. Évaluation par des professionnels de l'industrie Les professionnels de l'industrie saluent ces avancées, soulignant que le partenariat entre NVIDIA et Google est un modèle d'amélioration continue de l'infrastructure d'IA. Grâce à des optimisations performantes et à des solutions de déploiement flexibles, les organisations, quelle que soit leur taille, peuvent désormais exploiter le plein potentiel des modèles d'IA de Google, sans compromettre la sécurité ou la conformité. Ce partenariat renforce non seulement la position de leader de Google Cloud et NVIDIA dans le domaine de l'IA, mais également leur engagement envers la communauté de développeurs, favorisant ainsi une croissance collective et une innovation plus rapide. Profil de l'entreprise NVIDIA, spécialisée dans les solutions de calcul parallèle, est connue pour sa gamme de produits GPU haute performance et son expertise en IA. Google Cloud, quant à lui, offre des services cloud robustes et flexibles, axés sur l'innovation et la sécurité. Leur alliance vise à repousser les frontières de la technologie, en fournissant des outils et des infrastructures avancés pour répondre aux besoins complexes de l'IA moderne.

Related Links