AMD steigt in Yottascale-AI ein mit Helios und neuer GPU-Strategie
Unter der Führung von CEO Lisa Su hat AMD in mehr als elf Jahren einen beeindruckenden Comeback geschafft – von der Randposition nach dem Ende der Opteron-Ära hin zu einem ernstzunehmenden Konkurrenten von Intel im Server-Markt. Dieser Aufstieg basiert maßgeblich auf der Innovationskraft der Zen-Architektur und der Epyc-Serverchips, unterstützt durch CTO Mark Papermaster und ein engagiertes Entwicklungsteam. Nun positioniert sich AMD strategisch im Zeitalter der Künstlichen Intelligenz, wo der Markt weiterhin von Nvidia dominiert wird. Doch mit einem klaren Fokus auf die Entwicklung von GPU-Systemen und einer ambitionierten Roadmap will AMD sich als echte Alternative etablieren. Der jüngste Partnerschaftsvertrag mit OpenAI, dem Pionier der generativen KI und treibenden Kraft hinter ChatGPT, ist ein entscheidender Schritt. OpenAI benötigt massivste Rechenleistung, und die Kooperation mit einem Hersteller wie AMD, der gleichzeitig CPU, GPU und NPU integriert, schafft eine einzigartige Synergie. Ähnliche strategische Allianzen, wie die mit Oracle im Frühjahr 2025, unterstreichen die wachsende Bedeutung von AMD im KI-Ökosystem. Auf der CES 2026 in Las Vegas präsentierte Su den Höhepunkt dieser Strategie: das Helios-System – eine neue, rack-gekoppelte Plattform für die Yottascale-Ära. Helios ist ein doppelt breites, 7.000 Pfund schweres System basierend auf dem Open Compute Project’s Open Rack Wide Standard. Es ist nicht nur technologisch ambitioniert, sondern auch physisch beeindruckend – „größer als zwei Kleinwagen“, wie Su betonte. Das System kombiniert die neuesten AMD-Technologien: den Instinct MI455X-GPU, der 320 Milliarden Transistoren, 432 GB HBM4-Speicher und 3D-Chip-Stacking nutzt, sowie die Epyc-CPU „Venice“ mit bis zu 256 Zen-6-Kernen auf 2-Nanometer-Technologie. Die Leistung steigert sich dabei gegenüber dem Vorgänger MI355X um das Zehnfache, was ein massives Wachstum im Inferenz- und Trainingsbereich ermöglicht. Die Roadmap geht weiter: 2027 soll der MI500-Serie mit CDNA-6-Architektur, 2-Nanometer-Fertigung und HBM4E-Technologie folgen – mit einer Gesamtleistungssteigerung von 1.000-fach innerhalb von vier Jahren. Helios ist nicht nur ein Rechenkraft-Ensemble, sondern ein integriertes Ökosystem: Jeder flüssigkeitsgekühlte Tray enthält vier MI455X-GPUs, Venice-CPU, sowie Pensando-Vulcano- und Salina-Netzwerkchips mit 800 Gb/s Ethernet. Die Skalierbarkeit ist zentral: Tausende Helios-Racks können in einer Rechenzentrumsumgebung kooperieren, wobei jedes Rack über 18.000 CDNA5-GPU-Einheiten, 4.600 Zen-6-Kerne und bis zu 2,9 Exaflops Leistung verfügt. Mit 31 Terabyte HBM4-Speicher und 260 TB/s Skalierungsbandbreite ist die Datenflussgeschwindigkeit auf einem neuen Niveau. Die Herausforderung bleibt jedoch hoch: Nvidia reagiert mit eigenen Innovationen wie dem Rubin-GPU, Vera-Arm-CPU und der NVLink- sowie Spectrum-Ethernet-Infrastruktur. Die CES 2026 wird damit zu einem Showdown der Rechenleistung – und AMD zeigt, dass es nicht nur mithalten, sondern mitgestalten will. Industrieexperten sehen in Helios einen Meilenstein für die Skalierbarkeit von KI-Infrastruktur. „AMD hat mit Helios nicht nur eine Hardware-Revolution, sondern ein ganzheitliches Systemkonzept vorgestellt“, sagt ein Analyst von Moor Insights & Strategy. „Die Kombination aus Prozess-Technologie, Speicherarchitektur und Netzwerk ist überzeugend.“ AMD, das 2023 mit 22 Milliarden US-Dollar Umsatz im Datacenter-Segment aufwies, zeigt nun, dass es nicht nur um Chips geht, sondern um die gesamte Systemarchitektur. Mit OpenAI und Oracle als strategischen Partnern und einer klaren Yottascale-Strategie positioniert sich AMD als ernstzunehmender Player in der nächsten Generation der KI-Infrastruktur. Die Konkurrenz mit Nvidia ist hart, aber die Wette auf Integration, Skalierbarkeit und Offenheit könnte den entscheidenden Vorteil bringen.
