Startup will Nvidia-CUDA-Herrschaft herausfordern
In Silicon Valley, wo sich riskante technische Wagnisse häufen, gilt das Vorhaben, Nvidias Dominanz über CUDA herauszufordern, als eines der mutigsten – und zugleich eines der schwierigsten. Modular, ein Startup von ehemaligen Tech-Experten aus Apple und Google, hat sich dieses Ziel gesetzt. Gründer Chris Lattner, der für Swift bei Apple und die Softwareinfrastruktur hinter Googles TPUs verantwortlich war, und sein Mitgründer Tim Davis wollen mit ihrer neuen Plattform eine Alternative zu CUDA schaffen – einem Softwarestack, der heute die Grundlage für fast alle KI-Entwicklung bildet. Seit der Markteinführung vor rund 20 Jahren hat CUDA sich zu einem geschlossenen Ökosystem aus Programmiersprachen, Bibliotheken und Compilern entwickelt, das fast ausschließlich auf Nvidias GPUs basiert. Dies führt zu einer starken Abhängigkeit von einem einzigen Hersteller und macht die Nutzung alternativer Chips wie AMDs oder Googles TPUs komplex und ineffizient. Obwohl zahlreiche Konkurrenten wie AMD, Amazon oder Startups neue AI-Chips entwickeln, fehlt ihnen oft eine tragfähige Software-Infrastruktur. Die meisten Unternehmen bevorzugen daher weiterhin CUDA und Nvidias Hardware – trotz der daraus resultierenden Begrenzungen. Lattner sieht darin eine Chance: „Niemand hat ein echtes Interesse daran, portierbare Software zu bauen, weil die Chips selbst ihre eigenen Stack-Entwicklungen betreiben.“ Modular hat seit 2022 mit 380 Millionen Dollar aus Investoren wie Greylock, General Catalyst und GV eine beeindruckende Finanzierung erhalten und wurde im September auf 1,6 Milliarden Dollar bewertet. Das Kernstück von Modular ist die neue Programmiersprache Mojo, die Python-ähnlich einfach zu erlernen ist, aber gleichzeitig die Geschwindigkeit und Kontrolle von C++ bietet – ideal für effiziente KI-Entwicklung. Mojo ist kompatibel mit PyTorch und ermöglicht eine nahtlose Integration in bestehende KI-Workflows. Auf dieser Basis baut Modular die Layer MAX (für Inferenz) und Mammoth (für Cluster-Management) auf. Im September zeigte das Unternehmen, dass seine Software auf Nvidias Blackwell B200 und AMDs MI355X GPUs nahezu gleichzeitig läuft – mit einem Performance-Vorteil von bis zu 50 Prozent gegenüber AMDs eigenen Tools. Dies ermöglicht erstmals einen fairen Vergleich zwischen Nvidia und anderen Chips. Ein früher Nutzer ist Inworld AI, deren CEO Kylan Gibbs nach einem vierwöchigen Test einen Kooperationsvertrag unterzeichnete. Die Firma konnte ihre Kosten um 60 Prozent senken und die Latenz um 40 Prozent reduzieren. „Ich habe mit meinem Geld gewettet“, sagt Gibbs, der die zukünftige Flexibilität schätzt, auf andere Hardware wechseln zu können, falls sich neue Technologien wie AMDs Chips oder Googles TPUs durchsetzen. Lattner betont, dass Modular Nvidias Erfolg nicht untergraben will, sondern vielmehr ein „Android für KI-Hardware“ schaffen möchte – ein offenes System, das mehr Wettbewerb und Innovation fördert. So wie Android und iOS parallel bestehen, könnte auch in der KI-Welt ein multiplattform-Ökosystem entstehen, das Nvidias Dominanz nicht beseitigt, aber entscheidend abschwächt. Für die Branche wäre das ein entscheidender Schritt hin zu mehr Offenheit und Innovation. Die Entwicklung zeigt: Der Kampf um die Zukunft der KI-Infrastruktur ist erst am Anfang – und Modular könnte eine Schlüsselrolle spielen.
