HyperAI超神经
Back to Headlines

NVIDIA 推出 DGX Cloud Lepton:加速全球 AI 开发者的多云平台

7 days ago

英伟达(NVIDIA)推出了新的AI平台——DGX Cloud Lepton,该平台旨在助力开发者构建和扩展跨地理区域的高级代理和物理AI系统。DGX Cloud Lepton现已开放早期访问。 平台背景与目标 随着人工智能原生应用时代的到来,开发者们正在创建越来越复杂的代理和物理AI系统。然而,这些AI系统的扩展面临两大主要挑战:一是需要跨越不同地理区域,二是需要从多个GPU供应商获取算力支持。为了解决这些问题,NVIDIA开发了DGX Cloud Lepton。 关键功能 简化GPU发现:通过单个平台发现并分配来自多个云提供商的GPU资源,可以根据地区、成本和性能等因素选择最合适的算力资源,同时也支持标准的AI工具集。 一致的开发环境:无论底层基础设施如何,开发者都可以在一个标准化的环境中工作。 多云管理:减少了操作孤岛和摩擦,实现了在多个云提供商之间的无缝管理和扩展。 多地部署和数据主权支持:可以在特定地区访问GPU资源以满足数据驻留要求,减少延迟,提高性能。 内置可靠性和弹性:通过GPUd持续监测GPU健康状况,智能工作负载调度和故障隔离,确保系统的稳定性和一致性。 核心组件 Dev Pods:支持Jupyter笔记本、SSH和Visual Studio Code等交互式AI/ML开发,适用于原型设计、调试和迭代模型实验。 批处理作业:适合运行非交互式的大型工作负载,如模型训练和数据预处理,可以通过实时指标监控每项任务的状态和性能。 推理端点:可以部署和管理各种模型,包括基础模型、微调模型和自定义模型。系统会根据需求自动扩展模型副本,确保高可用性和性能,并提供内置的健康监测和弹性功能。 用户界面和支持 DGX Cloud Lepton提供了网页用户界面、命令行界面和SDKs的一致体验,适用于从原型设计到生产的各个环节。每个客户在加入后都会获得一个工作空间,这是一个安全的环境,用于管理和运行GPU资源的工作负载。管理员可以配置用户访问控制、密钥、容器注册表和使用配额等设置。 全球多家云服务提供商,包括Amazon Web Services、Firebird、Fluidstack、Mistral AI、Nebius、Nscale、Scaleway和Together AI,已经加入DGX Cloud Lepton的生态系统,提供NVIDIA Blackwell及其他GPU资源。Hugging Face也计划将其纳入自身的Training Cluster as a Service中,以增强研究人员的算力访问能力。 早期访问计划 NVIDIA邀请开发者参与DGX Cloud Lepton的早期访问计划,亲自体验这一平台如何改善他们的生成式AI开发流程。成功申请后,NVIDIA产品团队将与你合作,了解具体用例和算力需求。更多信息可以通过官方文档获取。 业内评价与公司背景 NVIDIA是一家全球领先的图形处理单元(GPU)和AI计算解决方案提供商,其不断推出创新产品和服务,推动了AI技术的快速发展。DGX Cloud Lepton的推出,再次彰显了NVIDIA在解决AI开发者痛点方面的决心和能力。业内专家认为,这一平台将极大地减轻开发者的基础设施管理工作,让他们更专注于核心开发任务,有望成为AI领域的一个重要里程碑。

Related Links