Wiener kämpft erneut für Transparenz bei Big Techs AI-Gefahren
Senator Scott Wiener von Kalifornien steht erneut im Zentrum der Debatte um die Regulierung künstlicher Intelligenz, diesmal mit dem neuen Gesetzesentwurf SB 53, der derzeit auf die Entscheidung von Gouverneur Gavin Newsom wartet. Im Gegensatz zu seinem umstrittenen Vorläufer SB 1047 aus dem Jahr 2024 – das Unternehmen für Schäden durch ihre KI-Systeme haftbar gemacht hätte und von Silicon Valley heftig bekämpft wurde – genießt SB 53 nun eine bemerkenswerte Zustimmung aus der Branche. Anthropic hat das Gesetz offiziell unterstützt, Meta nennt es einen „Schritt in die richtige Richtung“, und ehemalige Regierungsberater wie Dean Ball loben es als Sieg vernünftiger Stimmen. Der Grund für die gewandelte Haltung: SB 53 verlangt keine Haftung, sondern lediglich Transparenz. Große KI-Labore mit mehr als 500 Millionen US-Dollar Umsatz müssen künftig Sicherheitsberichte über ihre leistungsstärksten Modelle veröffentlichen, insbesondere bezüglich Risiken wie biologische Waffen, Cyberangriffe und Todesfälle. Zudem schafft das Gesetz geschützte Meldekanäle für Mitarbeiter, die Sicherheitsbedenken melden wollen, und etabliert eine staatliche Cloud-Infrastruktur, CalCompute, um Forschung außerhalb der großen Tech-Konzerne zu fördern. Der Erfolg von SB 53 liegt auch in seiner gezielten Ausrichtung: Im Gegensatz zu SB 1047, das weitreichende Haftungsregeln vorsah, konzentriert sich dieses Gesetz auf existenzielle Risiken – jene, die nicht nur Schäden verursachen, sondern menschliches Leben gefährden könnten. Wiener betont, dass er keine anti-technologische Haltung vertritt, sondern die Notwendigkeit sieht, die Macht der Milliardenunternehmen zu begrenzen, die sich selbst kaum regulieren. Seine Kritik richtet sich insbesondere gegen die fehlende Bundesregulierung, die er als von der Tech-Industrie beeinflusst ansieht – besonders im Zeichen der Trump-Administration, die AI-Sicherheit zugunsten von Wachstum und Infrastrukturentwicklung zurückdrängt. Während frühere KI-Gesetze oft von Start-ups und kleineren Akteuren unterstützt wurden, ist SB 53 diesmal vor allem von etablierten Playern wie Anthropic und Meta akzeptiert, da es keine Wettbewerbsnachteile für kleinere Unternehmen schafft. Dennoch gibt es Bedenken: OpenAI argumentiert, dass nur Bundesvorschriften gelten sollten, und die Venture-Firma Andreessen Horowitz spielt auf die verfassungsrechtliche „dormant Commerce Clause“ an, um staatliche Regulierung zu erschweren. Wiener ignoriert diese Warnungen und betont: „Wenn der Bund nichts tut, müssen die Staaten handeln.“ Sein Appell an Newsom lautet, dass er die Stimme der Experten und der Bürger gehört hat – und dass SB 53 eine Antwort auf die Forderung nach verantwortungsvoller Innovation ist, ohne die Innovation zu ersticken. Bewertung: Experten sehen in SB 53 einen Meilenstein für dezentrale, präventive KI-Regulierung. Es zeigt, dass Transparenz und Verantwortung auch ohne Haftung wirken können. Anthropic und Meta zeigen, dass die Branche bereit ist, Regeln zu akzeptieren – wenn sie nicht als Sanktionen, sondern als Sicherheitsstandard verstanden werden. Für Wiener ist die Gesetzesinitiative nicht nur ein politisches Ziel, sondern eine moralische Pflicht: „Wir müssen sicherstellen, dass die Macht der KI im Dienst der Menschheit steht – nicht gegen sie.“
