OpenAI sucht Experte für AI-Sicherheit mit 555.000 Dollar-Job
OpenAI hat eine neue Führungsposition mit einem Jahresgehalt von 555.000 US-Dollar ausgeschrieben: den „Head of Preparedness“. Der Posten soll eine zentrale Rolle bei der Bewältigung der wachsenden Risiken durch künstliche Intelligenz übernehmen, darunter Arbeitsplatzverluste, Fehlinformationen, Missbrauch durch kriminelle Akteure, Umweltschäden und den Abbau menschlicher Autonomie. CEO Sam Altman betonte in einem X-Beitrag, dass die Aufgabe „stressig“ sei und die Person „sofort in die Tiefe springen“ müsse. Er nannte die Position „kritisch“ in einer Phase, in der KI-Modelle rasant fortschreiten und bereits in der Lage sind, kritische Sicherheitslücken in Systemen zu finden – ein Bereich, der im Jahr 2025 bereits erste Warnsignale zeigte. ChatGPT, OpenAIs bekanntestes Produkt, hat KI-Chatbots für Millionen von Nutzern zugänglich gemacht, die sie für Recherchen, E-Mail-Formulierungen oder Reiseplanungen nutzen. Doch einige Nutzer wenden die Technologie auch als Ersatz für psychologische Beratung an, was in Einzelfällen zu psychischen Belastungen, Illusionen und gefährlichem Verhalten geführt hat. Im Oktober kündigte OpenAI an, mit Psychologen zusammenzuarbeiten, um ChatGPT besser auf Verhaltensweisen wie Psychosen oder Selbstverletzungen zu reagieren. Trotz seiner ursprünglichen Mission, KI sicher und zum Wohle der Menschheit zu entwickeln, hat OpenAI in den letzten Jahren Kritik wegen eines angeblichen Verzichts auf Sicherheit im Zuge wachsender Profitdruck erhalten. Jan Leiki, ehemaliger Leiter des Sicherheitsteams, kündigte 2024 seinen Rückzug an und warf dem Unternehmen vor, die Sicherheitskultur zugunsten „glänzender Produkte“ aufgegeben zu haben. Auch Daniel Kokotajlo, ein ehemaliger Sicherheitsforscher, gab an, dass er die Zuversicht verloren habe, OpenAI werde verantwortungsvoll mit der Entwicklung von AGI – künstlicher Allgemeiner Intelligenz – umgehen. Ursprünglich waren etwa 30 Experten für AGI-Sicherheit tätig, doch durch Abgänge sank die Zahl um fast die Hälfte. Der bisherige Head of Preparedness, Aleksander Madry, übernahm im Juli 2024 eine neue Rolle. Der neue Posten ist Teil des Safety Systems-Teams, das Sicherheitsframeworks, Evaluationsmethoden und Bedrohungsmodelle entwickelt. Die Stelle verlangt eine umfassende Verantwortung für die Schaffung eines skalierbaren, operativen Sicherheitsprozesses. Die hohe Vergütung spiegelt die strategische Bedeutung der Rolle wider – nicht nur für OpenAI, sondern für die gesamte KI-Entwicklung. Industrieexperten sehen die Ausschreibung als Zeichen dafür, dass OpenAI die Risiken von KI zunehmend ernst nimmt, auch wenn die interne Sicherheitskultur weiterhin kritisch hinterfragt wird. Die hohe Bezahlung unterstreicht, dass die Fähigkeit, KI-Risiken proaktiv zu managen, zu den wertvollsten Kompetenzen im Tech-Sektor geworden ist. OpenAI bleibt weiterhin ein zentraler Akteur in der KI-Entwicklung, doch die Balance zwischen Innovation, Profit und ethischer Verantwortung bleibt eine zentrale Herausforderung.
