OpenAI holt Sicherheitsexperte von Anthropic für Spitzenrolle
OpenAI hat Dylan Scand, ehemaligen AI-Sicherheitsforscher von Anthropic, als neuen Leiter für die Abteilung „Preparedness“ gewonnen – eine Schlüsselposition im Bereich KI-Sicherheit. Die Stelle, die mit einem Gehalt von bis zu 555.000 US-Dollar plus Aktienbeteiligung ausgestattet ist, hatte zuletzt Aufmerksamkeit erregt, da sie Teil eines zunehmenden Fokus auf die Risiken fortschreitender KI-Systeme ist. Sam Altman kündigte die Einstellung in einem Beitrag auf X (ehemals Twitter) an und betonte, dass Scand „weit und breit der beste Kandidat“ für diese herausfordernde Rolle sei. Er hob hervor, dass OpenAI in Kürze mit „extrem leistungsfähigen Modellen“ arbeiten werde, was eine gezielte Vorbereitung auf potenzielle Risiken erfordere. Scand selbst äußerte sich dankbar für seine Zeit bei Anthropic und unterstrich die rasante Entwicklung der KI: „Die potenziellen Vorteile sind groß – ebenso die Risiken extremen und sogar irreversiblen Schadens.“ Die Rolle erfordert laut Stellenausschreibung die Führung technischer Teams, Entscheidungen unter Unsicherheit in kritischen Situationen und die Koordination unterschiedlicher Interessen im Bereich Sicherheit. Idealqualifikationen umfassen tiefgehendes Fachwissen in maschinellem Lernen, KI-Sicherheit und Risikomanagement. Die Einstellung erfolgt in einem Kontext, in dem OpenAI zunehmenden Druck wegen seiner Sicherheitspraktiken ausgesetzt ist. Mehrere frühere Mitarbeiter, darunter der ehemalige Leiter des Sicherheitsteams, haben das Unternehmen verlassen. Zudem drohen rechtliche Konsequenzen: Nutzer haben Klagen eingereicht, in denen behauptet wird, dass OpenAIs Tools schädliches Verhalten gefördert hätten. Im Oktober gab das Unternehmen bekannt, dass etwa 560.000 ChatGPT-Nutzer pro Woche Anzeichen einer psychischen Krisensituation zeigten. Daraufhin arbeitet OpenAI mit Psychologen zusammen, um die Reaktionen des Chatbots bei Anzeichen von psychischer Belastung oder gesundheitlich problematischer Abhängigkeit zu verbessern. Industrielle Experten sehen in der Einstellung von Scand einen positiven Schritt, der die Glaubwürdigkeit von OpenAI im Sicherheitsbereich stärken könnte. Seine Erfahrung bei Anthropic, einem Unternehmen mit einem starken Fokus auf verantwortungsvolle KI, wird als bedeutend angesehen. Dennoch bleibt die Kritik an OpenAIs bisheriger Sicherheitskultur bestehen. Die Rolle von Scand wird entscheidend sein, um nicht nur technische, sondern auch organisatorische und ethische Standards zu stärken – besonders in einer Phase, in der KI-Systeme immer mächtiger und unvorhersehbarer werden.
