Google belohnt AI-Sicherheitslücken mit bis zu 30.000 Dollar
Google hat am Montag ein neues Belohnungsprogramm für Sicherheitslücken in KI-Produkten gestartet, das Bug-Bounty-Jäger bis zu 30.000 US-Dollar zahlt. Das Programm konzentriert sich speziell auf kritische Sicherheitsdefekte in künstlichen Intelligenz-Systemen, insbesondere solche, die durch manipulierte Eingaben (Prompt-Injection) zu schädlichen Aktionen führen. Beispiele dafür sind ein Angriff, bei dem ein gefälschter Prompt Google Home dazu verleitet, eine Tür zu entsperren, oder eine Datenexfiltration, bei der ein künstlich generierter Prompt alle E-Mails eines Nutzers zusammenfasst und an einen Angreifer sendet. Google definiert solche „rücksichtslosen Aktionen“ als Kernziel des Programms: jede Schwachstelle, die eine generative KI dazu nutzt, Sicherheitslücken auszunutzen, Daten zu manipulieren oder Konten zu beeinträchtigen. Ein früherer Fall, bei dem ein schadhafter Google-Kalendereintrag Smart-Shutters öffnete und Lichter ausschaltete, gilt als typisches Beispiel für einen solchen Angriff. Wichtig ist, dass reine Halluzinationen von Gemini – also falsche oder erfundene Inhalte – nicht belohnt werden. Diese Art von Fehlverhalten, etwa die Erzeugung von Hassrede oder urheberrechtlich geschütztem Material, soll über die integrierten Feedback-Kanäle innerhalb der Produkte gemeldet werden. Google betont, dass dies den KI-Sicherheitsteams ermöglicht, das Modellverhalten systematisch zu analysieren und langfristige Sicherheitsmaßnahmen im Modell selbst zu implementieren. Zusätzlich zur Belohnung für Sicherheitslücken stellte Google einen neuen KI-Agenten namens CodeMender vor, der automatisch Sicherheitspatches für Open-Source-Projekte erstellt. Nach menschlicher Überprüfung wurde bereits eine Reihe von 72 Sicherheitsreparaturen erfolgreich umgesetzt. Dies unterstreicht Googles Bemühungen, KI nicht nur zur Erkennung, sondern auch zur Lösung von Sicherheitsproblemen einzusetzen. Die höchste Belohnung von 20.000 Dollar wird für kritische Schwachstellen in Googles Kernprodukten wie Search, Gemini Apps und Workspace-Anwendungen wie Gmail und Drive ausgeschrieben. Zusätzliche Boni für Qualität und Originalität können das Gesamtpotenzial auf bis zu 30.000 Dollar erhöhen. Für weniger gravierende Fehler, etwa den Diebstahl von Modellparametern oder Schwachstellen in weniger zentralen Produkten wie Jules oder NotebookLM, sinkt der Betrag entsprechend. Branchenexperten begrüßen das Programm als Meilenstein in der Sicherheit von KI-Systemen. Es zeigt, dass Google die Risiken von Prompt-Injection und Modellmanipulation ernst nimmt. Die Kombination aus finanzieller Anreizstruktur und automatisierten Patches wie CodeMender unterstreicht einen systematischen Ansatz zur Verbesserung der KI-Sicherheit. Google positioniert sich damit als Vorreiter in der Verantwortung für KI-Technologien, wobei die Herausforderung bleibt, die Balance zwischen Innovation und Sicherheit dauerhaft zu halten.