AMD treibt AI-Entwicklung auf Client-Geräten voran – ROCm jetzt auch für Windows und Linux verfügbar
Bei der CES 2026 präsentiert AMD einen bedeutenden Schritt in der Verbreitung von KI-Entwicklung auf Client-Geräten durch die Weiterentwicklung seiner ROCm-Softwareplattform. Laut Andrej Zdravkovic, Chief Software Officer bei AMD, ist ROCm von 2023 „völlig unkenntlich“ geworden – ein Zeichen für die rapide Entwicklung und den strategischen Fokus auf KI-Plattformen auch im Endkundenbereich. Zentrales Element ist die Einführung eines „AI-Bundles“ im Rahmen des Adrenalin-Treibers, das Nutzern auf Windows-Notebooks und zukünftig auch auf AMDs neuen Halo-Box-Systemen eine nahtlose, optional installierbare KI-Entwicklungsumgebung bietet. Dieses Bundle enthält Werkzeuge wie PyTorch, ComfyUI, LM Studio, Ollama und Amuse – alles bereits vorinstalliert und konfiguriert – und zielt darauf ab, die Einstiegshürde für „Praktiker“ zu senken: Personen ohne technische Vorkenntnisse, die KI-Tools nutzen möchten, ohne sich durch 17 Schritte in Dokumentationen und GitHub-Repositories zu kämpfen. Ein zentrales Anliegen ist die Vereinheitlichung der ROCm-Plattform: Ab ROCm 7.2 werden dieselben Binärdateien für Windows und Linux verwendet, wobei die Unterschiede im Kernel-Level durch die jeweilige Betriebssystemarchitektur kompensiert werden. Dennoch bleibt die Herausforderung bestehen, dass verschiedene GPUs wie Strix Halo (GFX1150), RDNA 4 (GFX1200) oder MI350 (GFX950) unterschiedliche Matrix- und Hardware-Instruktionen unterstützen, was eine direkte Portabilität von Code zwischen diesen Plattformen bisher unmöglich macht. AMD arbeitet an einer Lösung, die über SPIR-V und GC hinausgeht, aber betont, dass die Priorität derzeit auf der Optimierung der Nutzererfahrung und der Integration in bestehende Workflows liegt. Die Zielgruppe ist nicht nur der Entwickler, sondern auch der kreative Nutzer, der etwa mit KI ein eigenes Spiel erstellen oder Videos erstellen möchte – „ein Tetris-Spiel mit fünf Befehlen“. Für Entwickler in der Industrie, insbesondere auf MI-Systemen, bleibt ROCm weiterhin die Kernplattform für Hochleistungsrechnen und KI-Training. AMD betont, dass die Plattform nun auch auf Client-Systemen wie Ryzen Max-Notebooks und Radeon-GPUs verfügbar ist, wobei die Unterstützung für Linux und Windows gleichzeitig ausgebaut wird. Die Herausforderung liegt darin, die große Vielfalt an Endgeräten mit unterschiedlichen Speicherkapazitäten und Leistungsprofilen zu berücksichtigen. Während der Fokus auf MI-Systemen klar auf großen Kunden wie OpenAI oder Microsoft ausgerichtet ist, muss die Client-Strategie flexibler sein – „Millionen Einzelkunden, alle machen etwas anderes“, wie Zdravkovic betont. Zudem wird die Rolle der NPU (Neural Processing Unit) diskutiert. AMD sieht hier eine Chance für energieeffiziente, niedrigleistungsfähige KI-Aufgaben im Windows-Umfeld, wobei die Programmierung über Microsofts Windows ML und DirectML erfolgen soll – nicht über OpenCL oder ROCm. Eine direkte Integration in ROCm ist aktuell nicht geplant, da die Architekturen der NPUs (z. B. von AMD vs. Qualcomm) noch zu unterschiedlich sind. Langfristig soll aber eine vereinheitlichte, abstrahierte Schnittstelle entstehen. In Bezug auf FSR 4 bleibt die Open-Source-Strategie unklar: Obwohl die Technologie bereits in der Entwicklung war, wurde sie aus Versehen veröffentlicht und nun zurückgezogen. AMD betont jedoch, dass der langfristige Plan weiterhin die Offenlegung ist, um Branchenstandards zu fördern – besonders im mobilen Bereich, wo FSR bereits von Arm genutzt wird. Die Integration in Open-Source-Projekte wie GPUOpen wird weiter vorangetrieben. Ein weiterer kritischer Punkt ist die Softwareunterstützung für Video-Encoding (z. B. FFmpeg) auf RDNA 4, die nach wie vor als unzureichend wahrgenommen wird. AMD gibt zu, dass die Nachfrage nach Verbesserungen nicht ausreichend hoch war, betont aber, dass Feedback durch Stacey oder direkt an das Team aufgenommen wird – und bei Realisierbarkeit umgesetzt wird. Insgesamt zeigt AMD mit dem AI-Bundle und der Erweiterung von ROCm auf Client-Plattformen eine strategische Wende: KI-Entwicklung soll nicht mehr nur für Spezialisten oder Data-Center reserviert sein, sondern für jeden zugänglich werden. Die Philosophie lautet: „Einfachheit, Option, keine Zwangseinblendung“. Gleichzeitig bleibt die Balance zwischen Gamern, die KI als Störung empfinden könnten, und „Praktikern“, die neue Möglichkeiten entdecken wollen, eine zentrale Herausforderung. Die Investition in die Client-Software ist kein Umverteilung, sondern eine echte Erweiterung – mit dem Ziel, AMDs Rolle als Enabler der KI-Revolution auch jenseits der High-End-Systeme zu stärken. Evaluierung: Branchenexperten sehen in der ROCm-Weiterentwicklung einen Meilenstein für die Democratization von KI. Die Einführung des AI-Bundles ist „eine der ersten echten Versuche, KI für den Massenmarkt zugänglich zu machen“, so ein Analyst. Die Herausforderung bleibt jedoch die Dokumentation und die Optimierung für diverse Client-Hardware. AMDs Ansatz, durch ADLX OEMs die Integration zu erleichtern, zeigt Verständnis für die Marktdynamik. Die langfristige Vision – KI überall, aber ohne Komplexität – ist ambitioniert, aber durch die Kombination aus Open-Source-Philosophie, Nutzerzentrierung und strategischer Partnerschaften machbar. Die Rolle von AMD als „Open-Source-Enabler“ gegenüber NVIDIAs CUDA bleibt entscheidend – besonders im Kontext von FSR und ROCm.
