HyperAIHyperAI

Command Palette

Search for a command to run...

F5 与 NVIDIA 协作,推出强化 AI 基础设施的新功能

F5与NVIDIA合作推出了一项面向未来AI领域的创新解决方案,旨在帮助客户更高效地部署和管理大规模AI基础设施。这款名为F5 BIG-IP Next for Kubernetes的新产品加速了在NVIDIA BlueField-3 DPUs上的性能提升和安全功能,满足了云级别的性能要求,同时支持多租户环境。 事件概览 时间:近期,F5宣布了这一新产品的发布。 核心人物: - Youssef El Manssouri:Sesterce的CEO和联合创始人 - Kunal Anand:F5的首席创新官 - Ash Bhalgat:NVIDIA的高级总监,负责AI网络和安全解决方案生态系统及营销 - Greg Schoeny:World Wide Technology的SVP,全球服务提供商 主要进展: 1. 性能提升:F5 BIG-IP Next for Kubernetes在NVIDIA BlueField-3 DPUs上运行,初期测试显示GPU利用率提高了20%。 2. 集成与优化:该解决方案集成了NVIDIA Dynamo和KV Cache Manager,显著降低了大型语言模型(LLM)推理系统的延迟,并优化了GPU和内存资源的使用。 3. 智能路由:通过NVIDIA BlueField DPUs实现智能LLM路由,支持跨多个模型的工作负载,客户可以利用所有可用模型的最佳组合。 4. MCP支持:F5技术作为反向代理,增强了Model Context Protocol(MCP)的安全性,支持更灵活和安全的LLM部署。 5. 数据可编程性:F5 iRules功能提供了强大的数据可编程性,使组织能够快速定制以支持AI应用和不断变化的安全需求。 详细经过和结果 Sesterce的验证: - Sesterce是一家领先的欧洲运营商,专门从事下一代基础设施和主权AI,已经成功完成了F5和NVIDIA解决方案的关键能力验证。 - 验证结果显示,F5的动态负载均衡与高流量的Kubernetes出入口管理相结合,能够在AI环境中更有效地分配流量并优化GPU使用,从而带来更高的价值。 Kunal Anand的观点: - F5 BIG-IP Next for Kubernetes直接在NVIDIA BlueField-3 DPUs上编程路由逻辑,是最高效的交付和保护LLM流量的方法。 - 他强调这只是开始,双方将继续深化合作,探索更多AI基础设施的可能性。 Greg Schoeny的评价: - 他认为F5和NVIDIA在广泛的Kubernetes环境中带来了先进的流量管理和安全性,提供了目前行业中未曾见到的集成AI功能集、可编程性和自动化能力。 最新功能亮点 轻量级任务处理:简单的AI任务可以路由到成本较低、性能较轻的LLM中,而复杂的任务则可以保留给高级模型。 领域特定模型:支持基于域的LLM路由,提高输出质量和用户体验。 KV缓存管理:通过保留信息从之前的操作中快速响应,减少延迟和资源消耗。 单点控制:企业和服务提供商可以通过F5 BIG-IP Next for Kubernetes在NVIDIA BlueField-3 DPUs上获得单一控制点,实现高效的大规模AI流量管理。 业内人士评价 Sesterce的CEO Youssef El Manssouri表示,F5和NVIDIA的集成在测试前就已显示出巨大的吸引力。测试结果进一步证实了这种组合的优势,特别是在AI环境中的流量分配和GPU优化方面。Greg Schoeny也赞扬了F5和NVIDIA的合作,认为它们为业界带来了独特的价值,尤其是在AI基础设施的灵活性和安全性方面。 公司背景 Sesterce成立于2018年,是欧洲领先的高性能计算和人工智能基础设施运营商。该公司提供灵活、自主、可持续的解决方案,适用于初创公司、大企业和学术机构,致力于成为欧洲AI基础设施的领导者。 F5是一家全球领先的应用交付和安全公司,拥有30年的行业经验。其旗舰产品F5 Application Delivery and Security Platform(ADSP)支持在任何环境中交付和保护应用程序和API,包括本地、云、边缘和混合多云环境。F5致力于通过不断创新和技术合作,提升客户在数字世界的体验。

相关链接