NVIDIA Blackwell: Superchip treibt extremes AI-Inferring an
NVIDIA hat mit dem Grace Blackwell-Superchip und dem GB200 NVL72-System eine neue Ära der extremen Skalierung im Bereich des maschinellen Lernens eingeleitet. Im Zentrum dieser Innovation steht ein integriertes Architekturkonzept, das zwei Blackwell-GPUs mit einem NVIDIA Grace-CPU in einem einzigen Superchip vereint. Diese Fusion ermöglicht eine Leistungssteigerung um eine Größenordnung im Vergleich zu früheren Systemen. Schlüssel hierfür ist die Weiterentwicklung der NVLink-Chip-zu-Chip-Technologie, die erstmals mit der Hopper-Architektur eingeführt wurde. Sie erlaubt eine nahtlose, direkt geteilte Speicheranbindung zwischen CPU und GPU, wodurch Latenz sinkt und die Datenübertragungsrate für künstliche Intelligenz-Aufgaben deutlich steigt. Das GB200 NVL72-System ist ein Meilenstein in der Rechenleistung: Es kombiniert 72 GPUs über 18 Rechentrays und wird durch eine hochpräzise NVLink-Switch-Spine mit über 5.000 hochleistungsfähigen Kupferkabeln verbunden. Diese Struktur bewegt Daten mit einer Geschwindigkeit von 130 TB/s – ausreichend, um den gesamten Spitzenverkehr des Internets in weniger als einer Sekunde zu übertragen. Die Herstellung dieser Spine erfordert eine exakte Bearbeitung von zwei Meilen Kupferdraht, die präzise geschnitten, montiert und getestet werden, bevor die Module final ins System eingebaut werden. Die Skalierung von KI-Fabriken erfordert nicht nur reine Rechenleistung, sondern auch eine nahtlose Kommunikation zwischen allen Komponenten. Hier kommt die Integration von NVIDIA Quantum-X800-Switches, NVLink-Switches und Spectrum-X-Ethernet zum Tragen, die mehrere NVL72-Systeme zu einem einzigen, kohärenten Rechenzentrum verbinden. Zusätzlich unterstützen NVIDIA BlueField-3-DPUs die Infrastruktur, indem sie nicht-künstliche Aufgaben wie Netzwerkkommunikation, Speicherzugriffe und Sicherheit entlasten – was die Effizienz der gesamten KI-Infrastruktur erhöht. Ein prominentes Beispiel für die Anwendung dieser Technologie ist Colossus, der Supercomputer von xAI, der in nur 122 Tagen gebaut wurde und über 200.000 NVIDIA-GPUs umfasst. Er repräsentiert eine vollständig skalierbare, software- und hardware-integrierte Architektur, die auf den Prinzipien von NVIDIA basiert. Auch CoreWeave, ein Cloud-Partner von NVIDIA, nutzt das GB200 NVL72-System, um leistungsstarke KI-Infrastrukturen bereitzustellen. Industrieexperten sehen in Grace Blackwell und dem NVL72-System einen Wendepunkt für die KI-Revolution. „Dies ist nicht nur eine Leistungssteigerung, sondern eine fundamentale Neugestaltung der Rechenarchitektur“, sagt ein Analyst von Moor Insights & Strategy. NVIDIA positioniert sich damit als unbestrittener Marktführer in der Hochleistungs-KI-Infrastruktur, wobei die Integration von CPU, GPU und Speicher über NVLink die Grundlage für die nächste Generation von KI-Modelle bildet. Die Fähigkeit, Systeme von der Einzel- bis zur globalen Skala zu skalieren, macht NVIDIA zu einem entscheidenden Baustein für die Zukunft der künstlichen Intelligenz.
