HyperAIHyperAI
Back to Headlines

NVLink Fusion erweitert AI-Infrastruktur mit hoher Leistung und Flexibilität

vor 3 Tagen

Die exponentielle Zunahme der Komplexität künstlicher Intelligenz (KI) hat zu Modellen mit Trilliarden Parametern geführt, die nur durch clustergestützte GPU-Systeme effizient verarbeitet werden können. Besonders Mixture-of-Experts (MoE)-Architekturen und KI-Reasoning mit Test-Time-Scaling steigern den Rechenaufwand erheblich. Um diese Anforderungen zu bewältigen, sind große parallele Rechenarchitekturen notwendig, die Tensor-, Pipeline- und Experten-Parallelität nutzen. Dazu ist eine skalierbare, hochperformante Kommunikationsinfrastruktur erforderlich – die NVIDIA NVLink-Scale-Up-Technologie, die mehrere GPUs zu einem einheitlichen Rechen- und Speicherpool verbindet. Seit ihrer Einführung 2016 überwand NVLink die Beschränkungen von PCIe und ermöglichte schnelle GPU-zu-GPU-Kommunikation sowie eine gemeinsame Speicheransicht. Mit dem NVLink-Switch 2018 erreichte man 300 GB/s All-to-All-Bandbreite in 8-GPU-Topologien. Die Einführung von SHARP (Scalable Hierarchical Aggregation and Reduction Protocol) optimierte kollektive Operationen und reduzierte Latenz. Die fünfte NVLink-Generation 2024 unterstützt nun 72 GPUs mit 1.800 GB/s All-to-All-Bandbreite – insgesamt 130 TB/s aggregiert, also 800-mal mehr als die erste Generation. NVIDIA setzt dabei jährlich neue NVLink-Generationen ein, um technologische Fortschritte mit dem rasanten Wachstum von KI-Modellen Schritt zu halten. Die Leistung von NVLink basiert nicht nur auf Hardware, sondern auch auf Software – insbesondere der NVIDIA Collective Communication Library (NCCL). Als Open-Source-Bibliothek optimiert NCCL GPU-Kommunikation in Single- und Multi-Node-Umgebungen und erreicht nahezu theoretische Bandbreite. Sie ist in allen führenden Deep-Learning-Frameworks integriert und profitiert von zehn Jahren Entwicklung und Produktionserfahrung. Für KI-Fabriken ist die Optimierung von Durchsatz pro Watt und Latenz entscheidend. Die 72-GPU-Rack-Architektur, basierend auf NVLink, maximiert die Fläche unter der Pareto-Kurve und steigert somit den Ertrag. Unterschiede in der Leistung zeigen sich bereits bei gleichbleibender NVLink-Geschwindigkeit – die Skalierbarkeit der Infrastruktur ist entscheidend. NVIDIA stellt mit NVLink Fusion nun direkten Zugang zu allen bewährten NVLink-Scale-Up-Technologien für Hyperscaler bereit. Es ermöglicht die Integration von kundenspezifischen CPUs und XPUs in die NVLink-Infrastruktur, inklusive SERDES, Chiplets, Switches und Rack-Architektur mit Hochdichte, Kupferkabel, fortschrittlicher Kühlung und Stromversorgung. Die Lösung ist als modulares OCP-MGX-Rack verfügbar und kompatibel mit beliebigen NICs, DPUs oder Scale-Out-Switches. Für XPUs nutzt NVLink Fusion das offene UCIe-Standardinterface mit einem Brücke-Chiplet für höchste Leistung und Flexibilität. Für CPUs wird die NVLink-C2C-IP empfohlen, um optimale Performance zu erreichen. Systeme mit kundenspezifischen CPUs erhalten Zugriff auf hunderte CUDA-X-Bibliotheken. Ein umfassendes Partner-Ökosystem mit Herstellern von Silizium, CPUs und IP-Technologie garantiert schnelle Integration und kontinuierliche Innovation. Die bereits produzierten NVIDIA GB200 NVL72 und GB300 NVL72-Systeme ermöglichen kurze Time-to-Market. NVLink Fusion stellt somit eine Schlüsseltechnologie für die nächste Generation von KI-Infrastrukturen dar: Mit einer bewährten, skalierbaren, offenen und flexiblen Plattform ermöglicht sie Hyperscalern, ihre KI-Infrastruktur nach Maß zu gestalten – mit maximaler Leistung für KI-Reasoning und höchster Effizienz. Industrieexperten sehen in NVLink Fusion eine entscheidende Antwort auf die steigenden Anforderungen an KI-Infrastruktur. Die Kombination aus bewährter Hardware, offenen Standards und einem robusten Ökosystem macht die Technologie zu einem wettbewerbsentscheidenden Vorteil. NVIDIA positioniert sich damit nicht nur als Hardware-Lieferant, sondern als Architekt der zukünftigen KI-Infrastruktur. Die Integration von UCIe und C2C-IP zeigt zudem eine strategische Ausrichtung auf offene, interoperable Plattformen – ein klares Signal für eine zukunftssichere, skalierbare KI-Ökonomie.

Related Links