OpenAI sucht vergeblich neue Leitung für Sicherheitsvorsorge
OpenAI sucht derzeit nach einer neuen Leiterin oder einem neuen Leiter für das Bereich „Preparedness“ – eine Position, die mit einer Jahresgehälter von 555.000 US-Dollar plus Anteilen ausgestattet ist und hohe Erwartungen an technische Expertise, strategische Entscheidungsfähigkeit und Krisenmanagement stellt. Die Stelle ist besonders herausfordernd, da sie nicht nur tiefgreifende Kenntnisse in künstlicher Intelligenz, Sicherheit und Risikobewertung erfordert, sondern auch die Fähigkeit, zwischen den oft widersprüchlichen Zielen von Produktinnovation und langfristiger Sicherheit zu vermitteln. Insbesondere unter CEO Sam Altman, der für seine schnelle Produktentwicklung bekannt ist – etwa mit dem Launch von Sora 2, Instant Checkout für ChatGPT oder fortschrittlichen Agentenfunktionen – wird die Rolle als entscheidender Kontrollmechanismus für potenzielle Risiken der KI-Entwicklung gesehen. Die Stellenausschreibung selbst verzichtet bewusst auf traditionelle Voraussetzungen wie akademische Abschlüsse oder Mindestarbeitsjahre. Stattdessen sucht OpenAI jemanden, der bereits technische Teams geführt hat, unter Unsicherheit klare, hochriskante Entscheidungen treffen kann, und in der Lage ist, unterschiedliche Interessengruppen – von Entwicklern bis zu Ethikkomitees – für Sicherheitsziele zu gewinnen. Die idealen Kandidaten sollen tiefgehende Expertise in Bereichen wie KI-Sicherheit, Evaluierungsmethoden, Cybersicherheit oder Risikomanagement mitbringen. Diese Anforderungen sind hochgradig spezialisiert und schränken die Pool an potenziellen Bewerbern erheblich ein. Die Besetzung der Stelle ist besonders komplex, da der vorherige Inhaber, Aleksander Madry, im Juli 2024 in eine andere Rolle innerhalb des Safety Systems-Teams wechselte, was eine Lücke in der KI-Sicherheitsarchitektur hinterlassen hat. Madry war ein zentraler Akteur bei der Entwicklung von Sicherheitsframeworks und Evaluationsmethoden für OpenAIs Modelle. Sein Ausscheiden unterstreicht, wie kritisch die Rolle ist – nicht nur für die interne Governance, sondern auch für das Vertrauen der Öffentlichkeit und Regulierungsbehörden in die Verantwortungsbewusstheit des Unternehmens. Industriebeobachter sehen die Stelle als Symbol für die wachsende Spannung zwischen Innovation und Kontrolle in der KI-Entwicklung. Ein geeigneter Kandidat müsste nicht nur technisch überzeugen, sondern auch die politische und ethische Dimension der KI-Sicherheit verstehen – ein seltenes Profil. Zudem könnte die hohe Vergütung zwar attraktiv wirken, aber die Verantwortung und der Druck, potenziell katastrophale Risiken abzuwenden, möglicherweise abschreckend wirken. Die Stelle ist damit weniger ein Karriere-Steig, sondern eher ein „Held-der-letzten-Stunde“-Rollen, was die Rekrutierung weiter erschwert. In der Branche wird die Stelle als Indikator für die wachsende Reife der KI-Industrie gesehen: Die Fähigkeit, sich selbst zu überwachen, wird zunehmend als notwendig erachtet. OpenAI setzt damit ein Zeichen, dass Sicherheit nicht nur ein technisches, sondern ein strategisches und kulturelles Anliegen ist. Ob es gelingt, eine Person zu finden, die diese Verantwortung tragen kann, wird entscheidend für die langfristige Glaubwürdigkeit des Unternehmens sein.
