HyperAIHyperAI
Back to Headlines

OpenAI jagt Allzweck-KI-Agenten durch verbesserte Schlussfolgerung

vor 18 Tagen

Nachdem Hunter Lightman 2022 bei OpenAI als Forscher antrat, arbeitete er zunächst unauffällig an der Entwicklung mathematischer Fähigkeiten für die KI-Modelle – ein Projekt, das später als MathGen bekannt wurde. Diese Gruppe spielte eine entscheidende Rolle bei der Schaffung von KI-Modellen mit fortgeschrittener logischer Schlussfolgerung, der Kernkompetenz hinter den von OpenAI verfolgten „KI-Agenten“. Anfangs waren die Modelle bei mathematischen Aufgaben, insbesondere in der High-School-Wettbewerbsmathematik, noch unzureichend. Doch durch die Kombination von großen Sprachmodellen (LLMs), Verstärkendem Lernen (Reinforcement Learning, RL) und Testzeit-Computing – einer Technik, die den Modellen mehr Zeit und Rechenleistung zur Problemlösung gibt – gelang 2023 ein Durchbruch, zunächst als „Q*“ oder „Strawberry“ bekannt. Diese Methode ermöglichte die sogenannte „Chain-of-Thought“-Fähigkeit, bei der Modelle ihre Gedankengänge nachvollziehbar machen und Fehler korrigieren können. Ein OpenAI-Modell erreichte 2024 sogar eine Goldmedaille bei der Internationalen Mathematik-Olympiade, ein Meilenstein, der die Fähigkeit zur komplexen, schrittweisen Argumentation belegte. Diese Fortschritte führten direkt zur Entwicklung des o1-Modells, das im Herbst 2024 veröffentlicht wurde und als Meilenstein in der KI-Entwicklung gilt. Die 21 Forscher hinter o1 wurden binnen weniger Monate zu den begehrtesten Talenten der Silicon Valley – unter ihnen fünf, die Mark Zuckerberg für sein neues Superintelligenz-Team bei Meta gewinnen konnte, mit Vergütungen über 100 Millionen Dollar. Die Entwicklung von o1 basierte auf einer bewussten Strategie: OpenAI nutzte nicht nur mehr Rechenleistung während der Nachtrainingsphase, sondern auch mehr Zeit für die Problemlösung, um die Modellleistung zu steigern. Diese Ansätze wurden in einem neuen „Agents“-Team unter Daniel Selsam weiterentwickelt und später in die o1-Entwicklung integriert, mit Beteiligung von Ilya Sutskever, Mark Chen und Jakub Pachocki. Ein zentrales Merkmal dieses Forschungsansatzes ist die Bottom-up-Kultur bei OpenAI: Forscher müssen ihre Ergebnisse nachweisen, um Ressourcen zu erhalten. Die Fokussierung auf die Entwicklung einer allgemeinen künstlichen Intelligenz (AGI) statt auf kurzfristige Produkte ermöglichte es, aufwendige Projekte wie o1 zu priorisieren. Während andere Labore mit den Grenzen der traditionellen Skalierung von LLMs kämpften, beschleunigte OpenAI mit der Verbesserung der Schlussfolgerungsfähigkeit die gesamte Branche. Was bedeutet „künstliche Intelligenz“ im Sinne von „Schlussfolgern“? Forscher wie El Kishky und Lightman betonen, dass es weniger um die Nachahmung menschlicher Gedanken als um die Effizienz der Rechenressourcenausnutzung geht. Wenn ein Modell komplexe Aufgaben löst, dann „reagiert“ es – unabhängig von der biologischen Analogie – auf die Aufgabe. Die KI-Modellierung ist, so Nathan Lambert von AI2, vergleichbar mit dem Flugzeug: Es funktioniert anders als der Vogel, aber genauso effektiv. Auch eine gemeinsame Stellungnahme von Forschern aus OpenAI, Anthropic und Google DeepMind betont, dass die Mechanismen hinter KI-Reasoning noch unzureichend verstanden sind. Heute sind KI-Agenten am besten bei klaren, verifizierbaren Aufgaben wie Programmierung – beispielsweise durch OpenAIs Codex oder Anthropic-Modelle in Tools wie Cursor. Doch bei subjektiven oder komplexen Alltagsaufgaben wie Online-Shopping oder Parkplatzsuche bleiben sie oft ineffizient und machen Fehler. Lightman sieht hier ein Datenproblem: Es fehlen Trainingsdaten für weniger messbare Aufgaben. OpenAI arbeitet daher an neuen RL-Techniken, die es ermöglichen, auch unverifizierbare Fähigkeiten zu vermitteln – beispielsweise durch die gleichzeitige Nutzung mehrerer Agenten, die Ideen testen und die beste Lösung auswählen, wie es beim IMO-Modell der Fall war. Diese Methoden gewinnen zunehmend an Bedeutung – auch bei Google und xAI. OpenAI will diese Fortschritte in GPT-5 nutzen, um die führende Position im Bereich KI-Agenten zu festigen. Ziel ist ein intuitiveres, selbstständiges System, das Benutzerbedürfnisse erkennt, Werkzeuge automatisch nutzt und die richtige Rechenzeit einsetzt – ein echter „digitaler Assistent“ für alle Internet-Aufgaben. Doch die Konkurrenz wächst: Google, Meta, Anthropic und xAI sind auf dem Vormarsch. Die Frage ist nicht mehr, ob OpenAI seine Vision erreichen kann, sondern ob es dies schneller schafft als die anderen.

Related Links

OpenAI jagt Allzweck-KI-Agenten durch verbesserte Schlussfolgerung | Schlagzeilen | HyperAI