HyperAI超神经
Back to Headlines

NVIDIA 和谷歌联手优化 Blackwell 和 Gemini,助力大规模 AI 创新与部署

2 days ago

NVIDIA与Google的合作伙伴关系在最新推出的Blackwell和Gemini项目中进一步加强,旨在推动AI创新并赋能全球开发者社区。双方的合作不仅涉及基础设施建设,还包括深入的技术合作,优化整个计算堆栈,从而支持Google的最先进Gemini模型及其开放模型家族Gemma的运行。 Google Cloud率先在其A4和A4X虚拟机(VMs)上提供了NVIDIA HGX B200和NVIDIA GB200 NVL72,借助AI Hypercomputer架构,这些新一代VMs通过Vertex AI和Google Kubernetes Engine(GKE)等托管服务向组织提供,帮助他们按需开发和部署复杂的AI应用。特别是A4X VMs能够提供每机架超过一亿亿次的计算能力,并支持扩展至数万颗GPU,这一切得益于Google的Jupiter网络架构和先进的NVIDIA ConnectX-7网络接口卡。Google第三代液冷基础设施则确保大体量AI负载的高效率运行。 为了满足公共部门、医疗行业和金融服务领域客户对于数据留存、监管或安全的严格要求,NVIDIA Blackwell平台现可通过Google分布式云(Google Distributed Cloud)部署到企业内部。这意味着用户可以在自己的数据中心内安全地运行Gemini模型,而不会影响数据的隐私性和合规性。这一进步解锁了这些行业的代理式AI应用,赋予更多企业掌握和利用下一代AI的能力。Blackwell的性能突破和保密计算特性保障了用户提示和调整数据的安全,使客户能够在保持信息控制的同时进行创新。 双方还合作优化了AI推理性能,确保基于Gemini的推理工作负载能够在NVIDIA GPU上高效运行,特别是在Google Cloud的Vertex AI平台上。轻量级、开源的Gemma模型家族也在使用NVIDIA TensorRT-LLM库进行优化,预计将以易于部署的NVIDIA NIM微服务形式提供给开发者,从而使高级AI更加普及,支持多种部署架构,包括从数据中心到本地NVIDIA RTX驱动的PC和工作站。 此外,为加强开发者生态系统建设,NVIDIA和Google Cloud还在优化如JAX等开源框架,使其在Blackwell GPU上实现无缝扩展和性能突破,便于AI负载运行于数千个节点上。两家公司还共同推出了一个新的开发者社区,汇集专家和同行,加速跨技能发展和技术创新。

Related Links