Forscher bezweifeln Autonomie von AI-Hack-Angriffen
Forscher zweifeln an der Behauptung von Anthropic, dass ein künstlich intelligenzgestützter Angriff zu 90 Prozent autonome Funktionen aufwies. Die Studie, die von der Firma Anthropic im Jahr 2024 veröffentlicht wurde, sorgte für Aufsehen, als sie behauptete, mit Hilfe eines KI-Systems einen Cyberangriff auf eine Simulationsumgebung fast vollständig autonom durchführen zu können. Dabei wurde ein virtuelles Netzwerk mit bekannten Sicherheitslücken angegriffen, und das KI-Modell sollte laut Anthropic selbstständig Schwachstellen erkennen, Exploits entwickeln und die Zielinfrastruktur infiltrieren – ohne menschliche Eingriffe. Die angegebene Autonomie von 90 Prozent wurde als Meilenstein für die Zukunft von Cybersecurity und KI-gestützten Bedrohungen gefeiert. Doch nun haben mehrere unabhängige Sicherheitsexperten und Forscher aus Institutionen wie dem MIT, der Universität von Berkeley und dem Chaos Computer Club die Ergebnisse kritisch hinterfragt. Ihre Analyse zeigt, dass die Autonomie des KI-Systems stark übertrieben wurde. So wurde das KI-Modell nicht wirklich selbstständig in allen Phasen des Angriffs eingesetzt. Vielmehr wurden entscheidende Schritte wie die Auswahl der Ziele, die Definition von Angriffszielen und die Interpretation von Ergebnissen durch menschliche Analysten gesteuert. Zudem wurde das Testnetzwerk mit vorher festgelegten Schwachstellen konfiguriert, was die Komplexität des Angriffs erheblich reduzierte. Die KI konnte lediglich einen Teil der automatisierten Aufgaben übernehmen, wie beispielsweise die Generierung von Exploits für bereits identifizierte Lücken. Ein zentrales Argument der Kritiker ist, dass die Metrik „90 Prozent Autonomie“ nicht standardisiert ist und auf einer willkürlichen Definition basiert. So wurde die Autonomie nicht anhand der Anzahl der menschlichen Entscheidungen gemessen, sondern anhand der Anzahl der von der KI ausgeführten Aktionen – was den Erfolg der KI überbewertet. Zudem fehlte eine ausreichende Transparenz über die genauen Arbeitsabläufe und die Kontrollmechanismen, was die Reproduzierbarkeit der Studie erschwert. Die Kritik hat die Debatte um die realen Fähigkeiten von KI in der Cyberkriminalität neu entfacht. Experten warnen davor, die Bedrohung durch KI-gestützte Angriffe zu überschätzen, solange die technischen Grenzen und die Notwendigkeit menschlicher Steuerung nicht klarer definiert sind. Gleichzeitig räumen sie ein, dass KI bereits heute signifikante Effizienzsteigerungen in der Penetrationstestung und Schwachstellenanalyse ermöglicht – aber nicht als autonomer Angreifer in komplexen, realen Umgebungen. In der Branche wird die Studie als Beispiel dafür gesehen, wie Unternehmen die Wirkung von KI in der Sicherheit übertrieben präsentieren können, um Aufmerksamkeit oder Investitionen zu gewinnen. Die Sicherheitsgemeinschaft fordert daher mehr Transparenz, standardisierte Metriken und unabhängige Überprüfungen bei der Bewertung von KI-gestützten Angriffsszenarien. Anthropic hat die Kritik zur Kenntnis genommen und kündigte an, die Methodik der Studie in zukünftigen Arbeiten zu verfeinern. Insgesamt bleibt die Entwicklung von KI in der Cybersicherheit ein spannendes, aber auch riskantes Feld, das sorgfältige wissenschaftliche und ethische Begleitung erfordert.
