HyperAIHyperAI

Command Palette

Search for a command to run...

Nvidia stellt neuen Rubin-Chip für Spitzenleistung in der KI vor

Nvidia hat auf der Consumer Electronics Show (CES) die neue Rubin-Architektur für KI-Hardware offiziell vorgestellt, die CEO Jensen Huang als den derzeitigen Stand der Technik in der KI-Infrastruktur bezeichnete. Die Architektur ist bereits in voller Produktion und soll im zweiten Halbjahr 2025 weiter ausgebaut werden. „Vera Rubin ist entwickelt worden, um die grundlegende Herausforderung zu meistern: Die Rechenleistung, die für KI benötigt wird, wächst exponentiell“, erklärte Huang. Die Rubin-Architektur ersetzt die Blackwell-Architektur, die wiederum Hopper und Lovelace abgelöst hatte, und ist das jüngste Ergebnis von Nvidia’s kontinuierlichem Hardware-Entwicklungszyklus, der das Unternehmen zum wertvollsten Unternehmen der Welt gemacht hat. Die Rubin-Chips bestehen aus sechs integrierten Bausteinen, die gemeinsam arbeiten. Zentrales Element ist der Rubin-GPU, flankiert von Verbesserungen in den Bluefield-Systemen für Netzwerkkommunikation und der NVLink-Technologie zur schnelleren Chip-Verbindung. Zudem wurde ein neuer Vera-CPU eingeführt, speziell für agenzienbasierte KI-Reasoning-Aufgaben optimiert. Ein zentrales Problem moderner KI-Systeme – die steigenden Anforderungen an den KV-Cache (Key-Value-Cache), der Eingaben komprimiert speichert – wird durch eine neue, extern angeschlossene Speichertierung gelöst, die eine effizientere Skalierung des Speichers ermöglicht, wie Senior Director Dion Harris erklärte. In Bezug auf Leistung steigert die Rubin-Architektur die Geschwindigkeit bei Modell-Training um das 3,5-Fache und bei Inferenz-Aufgaben um das Fünffache gegenüber Blackwell. Die Spitzenleistung erreicht 50 Petaflops. Zudem verfügt die Plattform über eine achtfach höhere Inferenz-Leistung pro Watt, was die Energieeffizienz erheblich verbessert. Die neuen Systeme werden bereits von fast allen großen Cloud-Anbietern eingesetzt, darunter Amazon Web Services, sowie von Forschungseinrichtungen wie dem Lawrence Berkeley National Lab (Doudna-Supercomputer) und HPE (Blue Lion). Die Einführung kommt in einer Phase intensiver Konkurrenz um KI-Infrastruktur, in der AI-Labs und Cloud-Anbieter um Zugang zu Nvidia-Chips und leistungsstarken Rechenzentren kämpfen. Auf der Gewinn- und Verlustkonferenz im Oktober 2025 schätzte Huang, dass in den nächsten fünf Jahren zwischen 3 und 4 Billionen US-Dollar in KI-Infrastruktur investiert werden. Die Rubin-Architektur positioniert Nvidia weiterhin als zentralen Treiber der KI-Revolution – nicht nur durch Leistung, sondern auch durch eine strategische Neuausrichtung auf Speicher, Energieeffizienz und agenzienbasierte KI-Workflows. Analysten sehen in der Architektur einen Meilenstein, der die Skalierbarkeit von KI-Systemen entscheidend voranbringt.

Verwandte Links