Anthropic unterstützt Kaliforniens AI-Sicherheitsgesetz SB 53
Anthropic hat die kalifornische KI-Sicherheitsgesetzesvorlage SB 53 offiziell unterstützt, eine Maßnahme, die erstmals weltweit umfassende Transparenzpflichten für die größten Entwickler von Frontiers-KI-Modellen vorsieht. Das Gesetz, eingereicht von Senator Scott Wiener, würde Unternehmen wie OpenAI, Google, Anthropic und xAI verpflichten, vor der Freigabe leistungsstarker KI-Systeme Sicherheitsrahmen zu erstellen und öffentliche Sicherheitsberichte vorzulegen. Zudem schützt die Vorlage Whistleblower, die Bedenken hinsichtlich der Sicherheit melden. SB 53 konzentriert sich auf extrem hohe Risiken – wie den Einsatz von KI zur Entwicklung biologischer Waffen oder massive Cyberangriffe – und definiert „katastrophale Risiken“ als Ereignisse mit mindestens 50 Todesopfern oder Schäden in Höhe von mehr als einer Milliarde Dollar. Obwohl die Vorlage bereits im Senat von Kalifornien beschlossen wurde, steht noch eine endgültige Abstimmung im Abgeordnetenhaus aus, bevor sie dem Gouverneur Gavin Newsom zur Unterschrift vorliegt. Newsom hatte zuvor ein ähnliches Gesetz, SB 1047, abgelehnt. Die Unterstützung von Anthropic ist bemerkenswert, da die meisten großen Tech-Gruppen wie die Consumer Technology Association (CTA) und die Chamber for Progress gegen die Vorlage lobbyieren. Kritiker argumentieren, dass KI-Regulierung auf Bundes- statt auf Landesebene erfolgen sollte, um eine fragmentierte Rechtslandschaft zu vermeiden. So warnten Vertreter von Andreessen Horowitz, dass solche Gesetze gegen das Commerce Clause der US-Verfassung verstoßen könnten. Doch Anthropic betont, dass die Entwicklung fortschrittlicher KI nicht auf eine Einigung in Washington warten kann. Co-Gründer Jack Clark erklärte, dass SB 53 zwar nicht die ideale Lösung sei, aber eine „solide Grundlage für KI-Governance“ darstelle, die nicht ignoriert werden darf. OpenAI hat indirekt gegen die Vorlage Stellung bezogen, indem sein Chief Global Affairs Officer Chris Lehane im August einen Brief an Newsom schickte, in dem er befürchtete, dass strenge Regulierung Start-ups aus Kalifornien verdrängen könnte – obwohl SB 53 nur Unternehmen mit mehr als 500 Millionen Dollar Umsatz betrifft. Miles Brundage, ehemaliger Leiter der Policy-Forschung bei OpenAI, kritisierte diese Argumentation als „irreführendes Gerücht“. Experten wie Dean Ball von der Foundation for American Innovation sehen in SB 53 eine deutliche Verbesserung gegenüber früheren Entwürfen wie SB 1047. Er lobt die „Respektierung der technischen Realität“ und die „legislativ zurückhaltende Herangehensweise“ der Verfasser. Die Vorlage wurde maßgeblich von einem Expertenrat geprägt, den Newsom mit Fei-Fei Li (Stanford, World Labs) einberufen hatte. Obwohl bereits viele KI-Labs wie OpenAI, Google DeepMind und Anthropic Sicherheitsberichte veröffentlichen, sind diese freiwillig und nicht durchsetzbar. SB 53 soll diese Maßnahmen verbindlich machen und mit finanziellen Sanktionen versehen. In einer früheren Version war eine Pflicht zur Drittauditierung enthalten, die aber im September gestrichen wurde, um Widerstand aus der Branche zu mildern. Die Kompromisslösung könnte die Chancen auf Verabschiedung erhöhen. Die Unterstützung von Anthropic ist ein strategischer Schritt, der die Position der Firma als verantwortungsbewusster Akteur in der KI-Entwicklung unterstreicht. Gleichzeitig zeigt sie, dass auch bei gespaltenen Meinungen innerhalb der Branche Raum für Konsens besteht – besonders wenn es um die Verhinderung von Katastrophenrisiken geht.
