Altman: OpenAI strebt 2028 als Ziel für autonomes KI-Forschungsteam an
Sam Altman, CEO von OpenAI, zeigte sich in einer Live-Stream-Veranstaltung am Dienstag äußerst reflektiert und offen. Seine Antworten gaben tiefere Einblicke in die strategischen Ziele des Unternehmens, die Herausforderungen der KI-Entwicklung und die Balance zwischen Nutzerfreiheit und Verantwortung. Eines der zentralen Ziele, das er nannte, war die Schaffung einer „Infrastrukturfabrik“, die wöchentlich ein Gigawatt Rechenleistung produzieren könnte – eine Vision, die weit über die derzeitigen Pläne hinausgeht. Obwohl er betonte, dass dies noch keine verbindliche Verpflichtung sei, signalisierte er, dass OpenAI überlegt, die Kosten für eine solche Infrastruktur über fünf Jahre auf rund 20 Milliarden Dollar zu senken. Diese ambitionierte Vision spiegelt die wachsende Rechenanforderung moderner KI-Modelle wider, wobei ein Gigawatt etwa der Leistung von 4 bis 5 Millionen GPUs entspricht, wie Nvidia-Chef Jensen Huang bemerkte. Ein weiterer kritischer Moment kam, als Altman über seinen missglückten Versuch sprach, die Flexibilität für erwachsene Nutzer zu erklären. Sein Beispiel mit „Erotik“ hatte heftige Kritik ausgelöst, auch von Persönlichkeiten wie Mark Cuban. „Ich hätte ein anderes Beispiel wählen sollen“, gab Altman zu, erkannte, dass der Begriff missverstanden wurde, und betonte, dass es ihm um die Anerkennung der Autonomie erwachsener Nutzer ging – nicht um die Förderung potenziell problematischer Inhalte. Die Botschaft: Flexibilität, aber mit Grenzen. Was die Zukunft älterer Modelle angeht, insbesondere GPT-4o, zeigte Altman Verständnis für die emotionale Bindung der Nutzer, die das Modell als besonders nützlich empfanden. Obwohl er betonte, dass er keine Ewigkeitsgarantie geben könne, versicherte er, dass 4o weiterhin verfügbar bleibt – zumindest nicht vorerst. Dies folgte nach einem Rückzug im Zuge der GPT-5-Einführung, der zu massiven Protesten führte. Zu Fragen der Altersverifikation und Nutzung durch Erwachsene war Altman klar: Selbst bei Unterschrift einer Haftungsausschlussklausel werde OpenAI keine Inhalte zulassen, die als gefährlich oder schädlich gelten – „wir werden nicht wie beim Verkauf von Heroin handeln“. Doch für verifizierte Erwachsene werde es deutlich mehr Freiheit geben als bisher, was als Schritt hin zu einer verantwortungsvollen, aber nicht übermäßig restriktiven KI-Nutzung interpretiert werden kann. Abschließend stellte Altman die Definition von AGI in den Hintergrund. Statt auf eine abstrakte Definition zu warten, setzt OpenAI nun auf messbare Ziele: Bis März 2028 soll ein echter automatisierter KI-Forscher existieren, der eigenständig Forschung betreiben kann. Dieses Ziel, das bereits 2026 mit einem KI-Praktikanten beginnen soll, soll konkreter und nützlicher sein als die kontinuierliche Debatte um den Begriff AGI. Industrieexperten sehen in Altmans Ansatz eine notwendige Verschiebung von theoretischen Zielen hin zu praktischen Meilensteinen. Die Fokussierung auf automatisierte Forschung könnte den Weg für schnelleren Fortschritt in der KI-Entwicklung ebnen. OpenAI, mittlerweile stabilisiert durch die neue Vereinbarung mit Microsoft, positioniert sich damit als treibende Kraft in der nächsten KI-Generation – mit einem Mix aus Vision, Verantwortung und pragmatischer Zielsetzung.
