OpenAI kämpft um GPU-Zuweisung – "Leid und Qual"
OpenAI-Präsident Greg Brockman hat in einem Gespräch mit dem „Matthew Berman“-Podcast offenbart, wie intensiv und emotional die interne Verteilung von Grafikprozessoren (GPUs) innerhalb des Unternehmens ist – ein Prozess, den er als „Schmerz und Leiden“ bezeichnete. GPUs sind das zentrale Ressourcenpuzzle für OpenAI, da sie die Grundlage für das Training und die Ausführung von KI-Modellen bilden. Brockman beschrieb die Entscheidungsfindung als hochgradig belastend: „Es ist so schwer, weil man all diese erstaunlichen Ideen sieht, und jemand kommt mit einer weiteren erstaunlichen Idee, und man denkt: Ja, das ist unglaublich.“ Doch die knappe Verfügbarkeit zwingt zu harten Abwägungen. Die Ressourcen werden zwischen der Forschungsabteilung und den Anwendungsprodukten aufgeteilt. Die Entscheidung über die Forschungsausgaben liegt bei Chief Scientist Ilya Sutskever und dem Forschungsleiter, während die Gesamtverteilung zwischen Forschung und Produktentwicklung von CEO Sam Altman und Fidji Simo, der Leiterin der Anwendungsabteilung, getroffen wird. Auf operativer Ebene kümmert sich ein kleines internes Team um die dynamische Umverteilung von GPU-Leistung, etwa wenn Projekte abgeschlossen werden oder neue dringend benötigt werden. Kevin Park, einer der Schlüsselmitarbeiter, übernimmt dabei die Koordination: „Du gehst zu ihm und sagst: ‚Wir brauchen jetzt mehr GPUs für ein neues Projekt‘, und er antwortet: ‚Okay, da sind fünf Projekte, die gerade auslaufen.‘“ Diese interne „GPU-Schleife“ spiegelt die weitreichende Knappheit wider, die OpenAI bereits seit Monaten prognostiziert. Brockman betonte, dass Rechenleistung direkt die Produktivität ganzer Teams beeinflusst – und die emotionale Belastung ist enorm. „Die Leute kümmern sich wirklich sehr“, sagte er. „Die Energie und Emotion, die dahinterstecken, wenn es darum geht, ob man seine Rechenressourcen bekommt oder nicht, kann man sich kaum vorstellen.“ OpenAI ist nicht allein mit diesem Problem. Der Chief Product Officer Kevin Weil hatte bereits im August erklärt, dass jedes neue GPU-Paket sofort ausgeschöpft werde: „Je mehr GPUs wir bekommen, desto mehr KI werden wir alle nutzen.“ Auch Altman betonte, dass die Firma neue, rechenintensive Angebote auf den Markt bringt – einige nur für Pro-Abonnenten oder mit Zusatzgebühren. Ziel sei es, die Grenzen der KI-Infrastruktur auszuloten: „Wir wollen herausfinden, was möglich ist, wenn wir viel Rechenleistung bei den heutigen Modellkosten auf interessante neue Ideen werfen.“ Auch andere Tech-Riesen wie Meta sind in diesem Wettlauf aktiv. Mark Zuckerberg erklärte kürzlich im „Access“-Podcast, dass Meta „Rechenleistung pro Forscher“ als strategischen Vorteil betrachtet und bewusst mehr ausgibt als Konkurrenten – sowohl für GPUs als auch für maßgeschneiderte Infrastruktur. In der Branche wird die GPU-Knappheit zunehmend als entscheidender Wettbewerbsfaktor angesehen. Die Fähigkeit, Rechenressourcen effizient zu managen und zu skalieren, wird zum Schlüssel für Innovation. OpenAI und andere Tech-Giganten investieren nicht nur in Hardware, sondern auch in Software-Optimierung und Infrastruktur, um die Auslastung zu maximieren. Die interne Konkurrenz um GPUs ist damit nicht nur ein technisches Problem, sondern ein Indikator für die strategische Priorität, die KI-Entwicklung in der heutigen Ära genießt.
