OpenAI löst Team für sichere KI auf, Leiter wird Chef-Futurist
OpenAI hat ein internes Team aufgelöst, das sich seit September 2024 mit der sogenannten „Alignment“-Forschung befasst hatte – einem zentralen Bereich der KI-Entwicklung, der sicherstellen soll, dass künstliche Intelligenz systematisch menschlichen Werten, Absichten und Sicherheitsstandards entspricht. Das Team, das unter der Leitung von Josh Achiam stand, war spezialisiert auf die Entwicklung von Methoden, die sicherstellen, dass KI-Systeme auch in komplexen, bedrohlichen oder hochriskanten Szenarien verlässlich und kontrollierbar agieren. In einer Erklärung betonte OpenAI, dass das Ziel der Forschung darin bestand, „katastrophales Verhalten zu vermeiden, die Kontrollierbarkeit, Nachvollziehbarkeit und Ausrichtung auf menschliche Werte zu gewährleisten“. Die Aufgabe des Teams war somit eng mit der langfristigen Sicherheit und ethischen Entwicklung von KI verbunden, insbesondere im Kontext künftiger künstlicher allgemeiner Intelligenz (AGI). Nun wurde das Team aufgelöst, und seine Mitglieder – insgesamt sechs bis sieben Personen – wurden in anderen Abteilungen des Unternehmens eingesetzt. Ob sie weiterhin ähnliche Arbeit leisten, blieb unklar. Der frühere Leiter, Josh Achiam, wurde in eine neue Position als „Chief Futurist“ befördert. In einem Blogbeitrag erklärte er, dass er künftig die langfristigen gesellschaftlichen, technologischen und existenziellen Auswirkungen von KI und AGI untersuchen werde, um OpenAIs Mission zu unterstützen: „eine künstliche allgemeine Intelligenz zu schaffen, die allen Menschen zugutekommt“. Er wird dabei mit Jason Pruet, einem Physiker aus dem technischen Stab, zusammenarbeiten. Ob er nun ein eigenes Team leitet, ist unbestätigt. Die Entscheidung wurde als Routine-Neuorganisation innerhalb eines schnell wachsenden Unternehmens beschrieben. Bereits 2024 war eine frühere, ähnlich ausgerichtete Einheit – die „Superalignment“-Gruppe – aufgelöst worden, die sich mit existenziellen Risiken durch KI beschäftigte. Diese Entwicklung wirft Fragen auf, ob OpenAI seine strategische Priorität in der Sicherheitsforschung verlagert. Kritiker sehen darin ein Zeichen dafür, dass die Fokussierung auf langfristige Risiken nachlässt, während die Entwicklung schneller und marktorientierter voranschreitet. Industrieexperten sehen die Umstrukturierung kritisch. „Die Aufhebung von Teams, die sich mit der langfristigen Sicherheit von KI beschäftigen, ist beunruhigend“, sagt eine Expertin aus dem Bereich KI-Ethik. „Wenn die Forschung zu Ausrichtung und Kontrolle nicht kontinuierlich vorangetrieben wird, steigen die Risiken für unerwünschte KI-Entwicklungen.“ Gleichzeitig wird argumentiert, dass die Integration der Experten in andere Bereiche eine effizientere Nutzung von Ressourcen bedeuten könnte. Dennoch bleibt die Frage, ob die strategische Tiefe der Alignment-Forschung erhalten bleibt, wenn sie nicht mehr in einem eigenständigen Team gebündelt ist. OpenAI bleibt weiterhin einer der führenden Akteure in der KI-Entwicklung, doch die Neuausrichtung seiner internen Strukturen könnte langfristig Auswirkungen auf das Vertrauen in die Sicherheitsorientierung des Unternehmens haben.
