F5 und NVIDIA verbessern AI-Leistung und Sicherheit mit BIG-IP.Next für Kubernetes
F5 erweitert Leistungsfähigkeit, Multitenanz und Sicherheit für dynamische KI-Landschaften mit NVIDIA PARIS – (BUSINESS WIRE) – F5 (NASDAQ: FFIV), der globale Anbieter von Anwendungslieferung und -sicherheit, hat heute neue Funktionen für F5 BIG-IP Next für Kubernetes angekündigt, die durch NVIDIA BlueField-3 DPUs und das NVIDIA DOCA Softwareframework beschleunigt werden. Diese Ankündigung wird durch die Validierungsbereitstellung des Kunden Sesterce unterstrichen, einem führenden europäischen Anbieter von next-generation-Infrastrukturen und souveräner KI. Die Erweiterung der F5-Anwendungslieferungs- und Sicherheitsplattform ermöglicht es BIG-IP Next für Kubernetes, hochperformante Verkehrsmanagement- und Sicherheitsfunktionen für groß angelegte KI-Infrastrukturen zu liefern. Dies führt zu erhöhter Effizienz, Kontrolle und Leistung für KI-Anwendungen. Sesterce hat erfolgreich die Validierung der F5- und NVIDIA-Lösung in mehreren wichtigen Bereichen abgeschlossen: Verbesserte Leistung, Multitenanz und Sicherheit: Die GPU-Nutzung konnte initially um 20 % verbessert werden, um den Anforderungen cloudbasierter Umgebungen gerecht zu werden. Integration mit NVIDIA Dynamo und KV Cache Manager: Diese integrierten Tools reduzieren die Latenz für die Inferenz von großen Sprachmodellen (LLMs) und optimieren GPU- und Speicherressourcen. Intelligenter Routing von LLMs auf BlueField DPUs: Mit der Unterstützung der NVIDIA NIM-Microservices können Workloads, die mehrere Modelle erfordern, effektiv verwaltet werden, wodurch Kunden das Beste aus allen verfügbaren Modellen ziehen können. Skalierung und Sicherung des Model Context Protocols (MCP): Reverse-Proxy-Fähigkeiten und Schutzmaßnahmen ermöglichen eine skalierbarere und sicherere Nutzung von MCP-Servern, sodass Unternehmen die Power von MCP-Servern schneller und sicherer nutzen können. Leistungsstarke Datenprogrammierung: Robuste F5 iRules-Fähigkeiten ermöglichen eine schnelle Anpassung zur Unterstützung von KI-Anwendungen und sich wandelnden Sicherheitsanforderungen. Youssef El Manssouri, CEO und Co-Gründer von Sesterce, betonte: "Die Integration zwischen F5 und NVIDIA war bereits vor den Tests verlockend. Unsere Ergebnisse unterstreichen die Vorteile von F5s dynamischem Load Balancing mit hochvolumigen Kubernetes-Ingress- und Egress-Verkehr in KI-Umgebungen. Dieser Ansatz ermöglicht uns, den Verkehr effizienter zu verteilen und die Nutzung unserer GPUs zu optimieren, während wir unseren Kunden zusätzliche und einzigartige Werte bieten können. Wir freuen uns, dass F5 die Unterstützung für zunehmende NVIDIA-Anwendungsfälle wie die erweiterte Multitenanz erhöht und wir uns auf weitere Innovationen im Bereich der nächsten Generation KI-Infrastrukturen freuen." Kunal Anand, Chief Innovation Officer bei F5, ergänzte: "Unternehmen setzen zunehmend mehrere LLMs ein, um fortgeschrittene KI-Erfahrungen zu ermöglichen – aber der Routing- und Klassifizierung von LLM-Verkehr kann rechenintensiv sein und die Leistung sowie das Benutzererlebnis beeinträchtigen. Durch das Programmieren von Routinglogik direkt auf den NVIDIA BlueField-3 DPUs bietet F5 BIG-IP Next für Kubernetes den effizientesten Ansatz zur Bereitstellung und Sicherung von LLM-Verkehr. Dies ist erst der Anfang. Unsere Plattform schafft neue Möglichkeiten für KI-Infrastrukturen, und wir sind begeistert, die Ko-Innovation mit NVIDIA weiterzuführen, während die Unternehmens-KI skaliert." NVIDIA Dynamo wurde früher in diesem Jahr vorgestellt und bietet einen zusätzlichen Framework für die Bereitstellung von generativer KI und Inferenzmodelle in großen verteilten Umgebungen. Dynamo vereinfacht die Komplexität der Ausführung von KI-Inferenz in verteilten Umgebungen, indem es Aufgaben wie Scheduling, Routing und Speichermanagement orchestriert, um unter dynamischen Workloads eine nahtlose Operation zu gewährleisten. Ein Kernvorteil der kombinierten F5- und NVIDIA-Lösung besteht darin, bestimmte Operationen von CPUs auf BlueField DPUs abzuloaden. Mit F5 ermöglicht die Dynamo KV Cache Manager-Funktion die intelligente Routung von Anfragen basierend auf Kapazitäten, wobei Key-Value-Caching Prozesse beschleunigt, indem es Informationen aus vorherigen Operationen speichert und nicht wiederholt berechnet werden müssen. Organisationen, die KV-Cache-Daten speichern und wiederverwenden, können dies zu einem Bruchteil der Kosten tun, die für die Nutzung von GPU-Speicher benötigt würden. Ash Bhalgat, Senior Director of AI Networking and Security Solutions, Ecosystem and Marketing bei NVIDIA, sagte: "BIG-IP Next für Kubernetes, beschleunigt mit NVIDIA BlueField-3 DPUs, gibt Unternehmen und Service Providern einen zentralen Kontrollpunkt, um den Verkehr effizient zu den KI-Werkstätten zu routen, um die GPU-Effizienz zu optimieren und den KI-Verkehr für Datenaufnahme, Modelltraining, Inferenz, RAG und agente KI zu beschleunigen. Zudem bieten die von F5 unterstützten Multitenanz- und erweiterten Programmierungsfähigkeiten mit iRules eine Plattform, die für die kontinuierliche Integration und Hinzufügen neuer Funktionen wie die Unterstützung für den NVIDIA Dynamo Distributed KV Cache Manager gut geeignet ist." Das Model Context Protocol (MCP) ist ein offenes Protokoll, das von Anthropic entwickelt wurde, um zu standardisieren, wie Anwendungen Kontext an LLMs bereitstellen. Die Bereitstellung der kombinierten F5- und NVIDIA-Lösung vor MCP-Servern ermöglicht es, F5-Technologie als Reverse Proxy zu verwenden, um die Sicherheitsfunktionen für MCP-Lösungen und die sie unterstützenden LLMs zu stärken. Die vollständige Datenprogrammierung, die durch F5 iRules ermöglicht wird, fördert die schnelle Anpassung und Resilienz an sich schnell entwickelnde KI-Protokollanforderungen sowie zusätzlichen Schutz vor aufkommenden Cybersecurity-Risiken. Greg Schoeny, SVP Global Service Provider bei World Wide Technology, äußerte: "Unternehmen, die agentbasierte KI implementieren, verlassen sich zunehmend auf MCP-Bereitstellungen, um die Sicherheit und Leistung von LLMs zu verbessern. Durch die Bereitstellung fortgeschrittener Verkehrsmanagement- und Sicherheitsfunktionen in umfangreichen Kubernetes-Umgebungen liefern F5 und NVIDIA integrierte KI-Funktionspakete – sowie Programmier- und Automatisierungsfähigkeiten –, die wir derzeit in keiner anderen Lösung auf dem Markt sehen." F5 BIG-IP Next für Kubernetes auf NVIDIA BlueField-3 DPUs ist jetzt allgemein verfügbar. Weitere technische Details und Bereitstellungsvorteile können auf www.f5.com eingesehen werden. Die Unternehmen sind auch bei der NVIDIA GTC Paris zu finden, Teil des dieswochigen VivaTech 2025-Events. Weitere Informationen finden sich in einem begleitenden Blogbeitrag von F5. Bewertung durch Branchenkenner Die Kombination von F5 BIG-IP Next für Kubernetes mit NVIDIA BlueField-3 DPUs markiert einen wichtigen Meilenstein in der Entwicklung von KI-Infrastrukturen. Sie ermöglicht Unternehmen, ihre KI-Anwendungen effizienter und sicherer zu skalieren, indem sie die Last auf den GPUs reduziert und gleichzeitig die Leistung und Flexibilität steigert. Die Integration von NVIDIA Dynamo und KV Cache Manager ist besonders erwähnenswert, da sie die Latenz reduziert und die Ressourcenverwaltung optimiert. F5s erweiterte Programmierungsfähigkeiten mit iRules tragen dazu bei, schnell auf sich ändernde Anforderungen zu reagieren und die Sicherheit zu stärken. Über Sesterce Gegründet 2018, ist Sesterce ein führender europäischer Anbieter von Hochleistungscomputing- und KI-Infrastrukturen. Die Firma bietet flexiblere, souveräne und nachhaltige Lösungen für Startups, große Unternehmen und akademische Einrichtungen. Sesterce strebt an, der europäische Marktführer in KI-Infrastrukturen zu werden und Innovatoren dabei zu unterstützen, ihre Anwendungen zu skalieren, während ethische und umweltfreundliche Standards eingehalten werden. Darüber hinaus bietet Sesterce eine „KI-eingebettete“ Servierebene über seine Infrastruktur hinweg: Es stellt hochwertige Datenbereitstellung bereit, die heterogene Echtzeit-Streams aufnimmt und transformiert, bietet dedizierte Unterstützung für sehr große Sprachmodelle (VLLMs) für Organisationen, die große Modelle entwickeln oder bereitstellen, und liefert modulare Business-Intelligence-Lösungen, die sowohl für KI-eingebettete Startups als auch für etablierte Unternehmen geeignet sind. Darüber hinaus gewährleistet Sesterce die vollständige Privatsphäre und Kontrolle mit privaten KI- und Inferenzumgebungen, die den europäischen Souveränitäts- und Vertraulichkeitsstandards entsprechen. Über F5 F5, Inc. (NASDAQ: FFIV) ist der globale Anbieter, der jede Anwendung und jedes API liefert und sichert. Gestützt auf dreißig Jahre Expertise hat F5 die führende Plattform – F5 Application Delivery and Security Platform (ADSP) – entwickelt, um jede Anwendung und jedes API überall zu liefern und zu sichern: lokal, in der Cloud, am Netzwerkrand und in hybriden, multicloud-Umgebungen. F5 ist darauf bedacht, zu innovieren und sich mit den größten und fortschrittlichsten Organisationen der Welt zusammenzutun, um schnelle, verfügbare und sichere digitale Erfahrungen zu liefern. Gemeinsam helfen wir einander zu gedeihen und bringen eine bessere digitale Welt zum Leben. Für weitere Informationen besuchen Sie f5.com Erkunden Sie F5 Labs Threat Research unter f5.com/labs Folgen Sie uns, um mehr über F5, unsere Partner und Technologien zu erfahren: Blog | LinkedIn | X | YouTube | Instagram | Facebook F5, BIG-IP, BIG-IP Next und iRules sind Marken-, Dienstleistungs- oder Firmennamen von F5, Inc. in den USA und anderen Ländern. Alle anderen Produkt- und Firmennamen können Eigentum ihrer jeweiligen Besitzer sein.
