HyperAI
Back to Headlines

Kalifornien fordert mehr Transparenz und Risikoabschätzung für KI-Modelle.

vor 16 Tagen

Kalifornien versucht erneut, seine KI-Riesen zu regulieren Im letzten September fokussierte sich die Aufmerksamkeit auf den Senatsbeschluss 1047 (SB 1047), der seinen Weg zum Schreibtisch von Kaliforniens Gouverneur Gavin Newsom fand und dort zugunsten eines Veto verweilte. SB 1047 hätte Anbieter großer KI-Modelle, insbesondere solche, die 100 Millionen US-Dollar oder mehr für das Training benötigen, verpflichtet, diese auf spezifische Gefahren zu testen. Whistleblower aus der KI-Branche waren über das Veto unglücklich, während die meisten großen Technologiekonzerne es begrüßten. Die Geschichte endete jedoch nicht hier. Newsom, der die Gesetzgebung als zu streng und einheitsmäßig empfand, beauftragte eine Gruppe führender KI-Forscher, einen alternativen Plan vorzuschlagen. Dieser sollte sowohl die Entwicklung als auch die Governance von generativer KI in Kalifornien unterstützen und gleichzeitig Schutzvorrichtungen für ihre Risiken bereitstellen. Am Dienstag wurde dieser Bericht veröffentlicht. Die Autoren des 52-seitigen "Berichts zur vordergründigen KI-Politik" von Kalifornien betonten, dass die Fähigkeiten von KI-Modellen, einschließlich ihrer „Ketten-von-Gedanken“-Fähigkeiten, seit Newsoms Veto "rasch verbessert" wurden. Basierend auf historischen Fallstudien, empirischer Forschung, Modellierung und Simulationen schlugen sie einen neuen Rahmen vor, der mehr Transparenz und unabhängige Überprüfungen von KI-Modellen erfordert. Ihr Bericht erscheint vor dem Hintergrund eines möglichen zehnjährigen Moratoriums für die Regulierung von KI durch Bundesstaaten, unterstützt von einer republikanischen Kongressmajorität und Unternehmen wie OpenAI. Die Macher des Berichts, darunter Fei-Fei Li, Co-Direktorin des Stanford Institute for Human-Centered Artificial Intelligence; Mariano-Florentino Cuéllar, Präsident des Carnegie Endowment for International Peace; und Jennifer Tour Chayes, Dekanin der UC Berkeley College of Computing, Data Science, and Society, argumentierten, dass KI-Breakthroughs in Kalifornien erhebliche Auswirkungen auf Landwirtschaft, Biotechnologie, Clean Tech, Bildung, Finanzwesen, Medizin und Verkehr haben könnten. Sie betonten, dass es wichtig ist, Innovationen nicht zu ersticken und sicherzustellen, dass "regulatorische Belastungen so gestaltet sind, dass Organisationen die Ressourcen haben, um sich daran zu halten." Dennoch sei das Reduzieren von Risiken von höchster Wichtigkeit: "Ohne angemessene Sicherheitsvorkehrungen können mächtige KI grave und in manchen Fällen potenziell irreparable Schäden verursachen." Die Gruppe hatte im März eine Entwurfsversion ihres Berichts zur öffentlichen Diskussion veröffentlicht. In der endgültigen Version schreiben sie, dass die Beweise, die diese Modelle zu "chemischen, biologischen, radiologischen und nuklearen (CBRN) Waffenrisiken" beitragen, seitdem gewachsen seien. Große Unternehmen hätten selbst gemeldet, dass ihre Modelle in diesen Bereichen besorgniserregende Verbesserungen erfahren hätten. Die Autoren haben einige Änderungen am Entwurfsbericht vorgenommen. Sie weisen nun darauf hin, dass Kaliforniens neue KI-Politik die rasch sich ändernden "geopolitischen Realitäten" bedenken muss. Sie fügten mehr Kontext über die Risiken hinzu, die große KI-Modelle mit sich bringen, und nahmen eine härtere Linie bezüglich der Kategorisierung von Unternehmen für die Regulierung ein. Sie argumentieren, dass eine reine Computebasierte Definition der Unternehmen, die regiert werden sollen, nicht der beste Ansatz sei, da die Trainingsbedürfnisse der KI ständig wechseln und eine Computebasierte Definition ignoriere, wie diese Modelle in realen Anwendungsfällen eingesetzt werden. Solche Definitionen könnten als "erster Filter verwendet werden, um günstig KI-Entitäten zu identifizieren, die eine genauere Prüfung erfordern," aber Faktoren wie initiale Risikobewertungen und downstream Impact-Assessments seien entscheidend. Derzeit ist die KI-Branche noch ein Wild West, was Transparenz angeht. Es gibt wenig Konsens über beste Praktiken, und es herrscht "systematische Undurchsichtigkeit in wichtigen Bereichen" wie die Art und Weise, wie Daten erhoben werden, Sicherheits- und Sicherheitsprozesse, vorklinische Tests und potenzielle downstream Auswirkungen. Der Bericht fordert deshalb Whistleblower-Schutz, unabhängige Bewertungen unter Schutz für die durchführenden Forscher und die direkte Informationsübermittlung an die Öffentlichkeit, um eine Transparenz zu schaffen, die über das hinausgeht, was aktuelle führende KI-Unternehmen freiwillig preisgeben. Einer der Hauptautoren des Berichts, Scott Singer, sagte The Verge, dass die KI-Politikgespräche "völlig verschoben" worden seien, seit der Entwurfsbericht veröffentlicht wurde. Er argumentierte, dass Kalifornien helfen könne, eine "Harmonisierungsbemühung" unter den Staaten anzuleiten, um "allgemein unterstützte, gesunde Politiken" zu fördern. Das steht im Gegensatz zu den chaotischen Patchworks, die KI-Moratoriumsanhänger Staatsgesetze schaffen würden. In einem Gastbeitrag Anfang dieses Monats rief Anthropic-CEO Dario Amodei nach einem bundesweiten Transparenzstandard, der führende KI-Unternehmen verpflichten würde, auf ihren Unternehmenswebseiten zu veröffentlichen, "wie sie vorgehen, um nationale Sicherheits- und andere katastrophale Risiken zu testen und abzumildern." Doch auch solche Maßnahmen seien nicht ausreichend, schreiben die Autoren des Berichts vom Dienstag, da "für eine junge und komplexe Technologie, die in einem bemerkenswert schnellen Tempo entwickelt und adoptiert wird, Entwickler allein einfach nicht ausreichend sind, um die Technologie vollständig zu verstehen, insbesondere ihre Risiken und Schäden." Daher ist eine der wesentlichen Empfehlungen des Berichts die Notwendigkeit unabhängiger Risikoabschätzungen. Die Autoren argumentieren, dass Risikoabschätzungen Unternehmen wie OpenAI, Anthropic, Google und Microsoft dazu anspornen würden, die Modellsicherheit zu erhöhen, und gleichzeitig ein klareres Bild von den Risiken ihrer Modelle vermitteln würden. Aktuell führen führende KI-Unternehmen selbstbewertete oder von zweiten Parteien durchgeführte Bewertungen durch. Unabhängige Bewertungen sind jedoch unabdingbar, betonen die Autoren. Nicht nur "tausende von Individuen... sind bereit, an Risikobewertungen teilzunehmen, was den Umfang interner oder externer Teams übertrifft," sondern auch Gruppen von unabhängigen Evaluatoren zeichnen sich durch "einzigartige Vielfalt" aus, insbesondere wenn Entwickler bestimmte Demografien und Geografien dominieren, die oft sehr anders sind als diejenigen, die am stärksten von KI negativ betroffen sind. Allerdings ist es selbst für zweite Parteien nicht einfach, das nötige Ausmaß an Zugang zu erhalten. Metr, ein Unternehmen, das OpenAI bei Sicherheitstests seiner eigenen Modelle unterstützt, schrieb in einem Blogpost, dass ihm weniger Zeit und weniger Zugang zu Daten und internen Überlegungen des Modells gewährt wurde als bei früheren Modellen. Diese Einschränkungen verhinderten, "robuste Leistungsbewertungen" durchzuführen. OpenAI gab später bekannt, dass es Möglichkeiten erforsche, mehr Daten an Firmen wie Metr weiterzugeben. Dennoch könnten sogar APIs oder Offenlegungen der Gewichte eines Modells unabhängigen Evaluatoren nicht effektiv den Zugang zu Risiken ermöglichen. Unternehmen könnten „unterdrückende“ Nutzungsbedingungen nutzen, um unabhängige Forscher, die Sicherheitslücken aufdecken, zu verbieten oder rechtliche Schritte gegen sie einzuleiten. Im März unterzeichneten mehr als 350 KI-Industrieforscher und andere eine offene Petition, die einen "Safe Harbor" für unabhängige KI-Sicherheitstests forderte, ähnlich den bestehenden Schutzmechanismen für externe Cybersecurity-Tests in anderen Bereichen. Der Bericht vom Dienstag zitiert diese Petition und ruft zu großen Veränderungen auf, sowie zu Meldungsmöglichkeiten für Personen, die von KISystemen geschädigt wurden. "Sogar perfekt gestaltete Sicherheitsrichtlinien können 100% aller erheblichen, negativen Auswirkungen nicht verhindern," schreiben die Autoren. "Da Basismodelle weit verbreitet werden, wird das Verständnis von Schäden, die in der Praxis auftreten, zunehmend wichtig." Industrieinsider bewerten den Bericht als einen wichtigen Schritt zur Verbesserung der KI-Regulierung. Sie sehen jedoch auch Herausforderungen in der Umsetzung und der Bereitschaft der Unternehmen, die notwendige Transparenz zu gewähren. Das Stanford Institute for Human-Centered Artificial Intelligence, das Carnegie Endowment for International Peace und die UC Berkeley College of Computing, Data Science, and Society sind führende Einrichtungen in der KI-Forschung, die durch diese Initiative geprägt werden. Ihre Zusammenarbeit unterstreicht die Dringlichkeit und Komplexität der KI-Regulierung, insbesondere in einem Bundesstaat wie Kalifornien, der als Zentrum der Technologieindustrie gilt.

Related Links