Kalifornien will AI-Sicherheitsberichte verpflichtend machen
Kalifornischer Abgeordneter Scott Wiener stößt erneut Anstrengungen zur Einführung von gesetzlichen Sicherheitsberichten für KI voran Am Mittwoch präsentierte kalifornischer StaatsSenator Scott Wiener neue Änderungsanträge zu seinem neuesten Gesetzesentwurf, dem SB 53, der den weltweit größten KI-Unternehmen die Veröffentlichung von Sicherheits- und Schutzprotokollen sowie Berichten bei Sicherheitsvorfällen auferlegen würde. Falls verabschiedet, wäre Kalifornien der erste Bundesstaat, der bedeutende Transparenzauflagen für führende KI-Entwickler wie OpenAI, Google, Anthropic und xAI einführt. Wiener hat bereits einen ähnlichen Vorschlag, das SB 1047, eingereicht, das ebenfalls die Veröffentlichung von Sicherheitsberichten durch KI-Modellentwickler vorsah. Dieses Gesetz wurde jedoch von der Silicon Valley-Industrie heftig bekämpft und letztlich vom Gouverneur Gavin Newsom abgelehnt. Daraufhin rief Newsom eine Gruppe führender KI-Experten, darunter die Stanford-Forscherin und Co-Gründerin von World Labs, Fei-Fei Li, auf, eine Politikgruppe zu bilden und Ziele für die KI-Sicherheitsbemühungen des Bundesstaates festzulegen. Die KI-Politikgruppe veröffentlichte kürzlich ihre endgültigen Empfehlungen, in denen sie betonte, dass es notwendig sei, die Industrie dazu zu verpflichten, Informationen über ihre Systeme zu veröffentlichen, um eine „robuste und transparente Beweisumgebung“ zu schaffen. Senator Wieners Büro gab in einer Pressemitteilung bekannt, dass die Änderungen des SB 53 stark von diesem Bericht beeinflusst wurden. „Der Entwurf ist ein ständiges Werk in Fortschreiten, und ich freue mich darauf, im kommenden Monat mit allen Beteiligten zusammenzuarbeiten, um diesen Vorschlag zu einem wissenschaftlich fundierten und fairen Gesetz zu machen“, sagte Senator Wiener in der Pressemitteilung. Das Ziel des SB 53 besteht darin, einen Ausgleich zu schaffen, den Gouverneur Newsom als fehlend im SB 1047 identifiziert hatte. Es soll bedeutende Transparenzauflagen für die größten KI-Entwickler schaffen, ohne das rapide Wachstum der KI-Branche in Kalifornien zu gefährden. Nathan Calvin, Vizepräsident für Staatsangelegenheiten der gemeinnützigen KI-Sicherheitsgruppe Encode, äußerte sich im Interview mit TechCrunch: „Diese Bedenken haben unsere Organisation und andere schon lange geäußert. Es erscheint als ein grundlegender, vernünftiger Schritt, dass Unternehmen der Öffentlichkeit und der Regierung erklären, welche Maßnahmen sie ergreifen, um diese Risiken zu bewältigen.“ Darüber hinaus sieht der Entwurf Whistleblower-Schutz für Mitarbeiter von KI-Labors vor, die glauben, dass ihre Technologie eine „kritische Gefahr“ für die Gesellschaft darstellt, definiert als Beiträge zu Todesfällen oder Verletzungen von mehr als 100 Menschen oder Schäden in Höhe von mehr als 1 Milliarde Dollar. Zudem möchte der Entwurf CalCompute gründen, eine öffentliche Cloud-Computing-Cluster, die Startups und Forscher bei der Entwicklung groß angelegter KI unterstützen soll. Im Gegensatz zum SB 1047 macht der neue Entwurf KI-Modellentwickler nicht für die Schäden ihrer KI-Modelle haftbar und legt auch keine Belastung auf Startups und Forscher, die KI-Modelle von führenden Entwicklern anpassen oder offene Quelltextmodelle verwenden. Mit den neuen Änderungen wird SB 53 nun dem Ausschuss für Datenschutz und Verbraucherschutz des kalifornischen Staatsparlaments zur Genehmigung vorgelegt. Sollte es dort durchkommen, muss es noch durch mehrere andere legislativische Gremien, bevor es auf Newsoms Schreibtisch landet. Auf der anderen Seite der USA erwägt New Yorks Gouverneurin Kathy Hochul ein ähnliches KI-Sicherheitsgesetz, das RAISE Act, das ebenfalls die Veröffentlichung von Sicherheits- und Schutzberichten durch große KI-Entwickler verlangt. Das Schicksal solcher staatlichen KI-Gesetze stand kurz auf dem Spiel, als Bundespolitiker eine 10-jährige Moratoriumsvorlage zur Einfrierung staatlicher KI-Regulierungen in Erwägung zogen, um ein „Flickenteppich“ von KI-Gesetzen zu vermeiden, die Unternehmen zu bewältigen hätten. Diese Initiative scheiterte jedoch im Juli mit einer Abstimmung von 99 zu 1 im Senat. Bislang sind die Anstrengungen der Gesetzgeber, KI-Unternehmen zur Zustimmung staatlicher Transparenzauflagen zu bringen, erfolglos geblieben. Anthropic hat generell die Notwendigkeit erhöhter Transparenz unterstützt und sogar vorsichtig optimistisch auf die Empfehlungen der kalifornischen KI-Politikgruppe reagiert. Firmen wie OpenAI, Google und Meta haben jedoch weniger kooperativ auf diese Bemühungen reagiert. Obwohl führende KI-Modellentwickler in der Regel Sicherheitsberichte zu ihren Modellen veröffentlichen, waren sie in den letzten Monaten weniger konsequent. Google entschied beispielsweise, keinen Sicherheitsbericht für sein am weitesten fortgeschrittenes jemals veröffentlichtes KI-Modell, Gemini 2.5 Pro, zu veröffentlichen, bis Monate später. Auch OpenAI verzichtete auf die Veröffentlichung eines Sicherheitsberichts für sein GPT-4.1-Modell. Später kam eine dritte Partei zu dem Schluss, dass dieses Modell möglicherweise weniger ausgerichtet sei als frühere KI-Modelle. SB 53 stellt eine gemäßigtere Version früherer KI-Sicherheitsgesetze dar, könnte aber immer noch KI-Unternehmen zwingen, mehr Informationen zu veröffentlichen als heute üblich. Für den Moment werden sie genau beobachten, wie Senator Wiener erneut diese Grenzen auslotet. Brancheinsider bewerten SB 53 als einen wichtigen Schritt zur Förderung der Transparenz und Verantwortung in der KI-Branche. Geoff Ralston, ehemaliger Präsident von Y Combinator, sagte zu TechCrunch: „Sicherheitsfragen bei KI sollten nicht umstritten sein – sie sollten fundamental sein. Der Kongress sollte die Führung übernehmen, Transparenz und Rechenschaftsfähigkeit von den Unternehmen verlangen, die diese Modelle entwickeln. Solange keine ernsthafte Föderalaktion in Sicht ist, müssen die Bundesstaaten aktiv werden. SB 53 ist ein gut strukturiertes Beispiel staatlicher Führung.“ Kalifornien steht damit vor der Herausforderung, einen Ansatz zu finden, der sowohl die Interessen der Öffentlichkeit und der Regierung als auch die Bedürfnisse der KI-Industrie berücksichtigt. Die Einführung von SB 53 zeigt, dass die politischen Anstrengungen zur Regelung der KI-Technologie weitergehen, selbst wenn bisherige Versuche gescheitert sind.