Nvidia set neue MLPerf-Rekorde mit Blackwell Ultra GB300 und 45 % mehr Inferenzleistung
Nvidia hat mit seinem neuen Blackwell Ultra GB300 NVL72-Rack-System erneut eigene Benchmark-Rekorde im MLPerf-Wettbewerb gebrochen. Laut Unternehmensangaben steigert das System die Inference-Leistung bei DeepSeek R1 um 45 % gegenüber der vorherigen Generation, dem Blackwell-basierten GB200. Die Leistungssteigerung resultiert aus einer Kombination aus Hardware- und Software-Optimierungen: Der GB300 nutzt fortschrittlichere GPU-Architekturen, erhöhte Speicherkapazitäten und verbesserte Interconnect-Technologien, darunter die NVIDIA NVLink- und NVSwitch-Infrastruktur, die eine nahtlose Kommunikation zwischen bis zu 72 GPUs ermöglicht. Zusätzlich wurden Treiber, Runtime-Systeme und inferenzspezifische Algorithmen neu gestaltet, um Latenz zu minimieren und die Auslastung der Hardware zu maximieren. Die Ergebnisse wurden im MLPerf Inference v4.0-Wettbewerb erzielt, einem standardisierten Benchmark, der die Leistung von AI-Systemen bei der Verarbeitung von realen Anwendungen wie Sprachmodellen, Bildgenerierung und maschinellem Sehen misst. In mehreren Kategorien – darunter große Sprachmodelle, Computer Vision und multimodale Anwendungen – erreichte der GB300 die Spitzenwerte, was Nvidia als Beweis für die Überlegenheit seiner Plattform im Bereich der Skalierbarkeit und Effizienz darstellt. Besonders hervorgehoben wird die hohe Durchsatzleistung bei komplexen Inferenzaufgaben, die für Unternehmen entscheidend ist, die „AI-Factories“ aufbauen – also große, automatisierte Infrastrukturen zur kontinuierlichen Erstellung und Bereitstellung von KI-Modellen. Das Blackwell-Ökosystem, das bereits in den RTX 50-Serie-Grafikkarten für Gaming und Kreativität eingesetzt wird, dient nun als Basis für die leistungsstärksten AI-Infrastrukturen weltweit. Die GB300-Plattform wird bereits in Rechenzentren von Cloud-Anbietern, Forschungseinrichtungen und großen Tech-Unternehmen eingesetzt, um die Anforderungen an große Sprachmodelle und generative KI zu erfüllen. Nvidia betont, dass die verbesserte Effizienz nicht nur die Rechenleistung steigert, sondern auch die Kosten pro Inference-Abfrage senkt – ein entscheidender Faktor für wirtschaftliche KI-Implementierungen. Industrieanalysten sehen in den neuen Benchmark-Ergebnissen einen weiteren Meilenstein für Nvidia’s dominierende Position im AI-Hardware-Markt. Experten weisen darauf hin, dass die Kombination aus Hardware- und Software-Optimierung – insbesondere die Nutzung von Tensor- und Sparsity-Technologien – die tatsächliche Performance in der Praxis oft deutlich über die Spezifikationen hinaus treibt. Die GB300-Plattform könnte daher nicht nur die Leistung, sondern auch die Wirtschaftlichkeit von KI-Infrastrukturen entscheidend verändern.
