Künstliche Intelligenz übertrifft menschliche Hacker in Sicherheitstest
Ein künstliches Intelligenz-Agenten-System namens ARTEMIS hat in einer Studie der Stanford-Universität menschliche Hacker bei einer Sicherheitsprüfung überzeugend geschlagen. Während es über 16 Stunden lang die öffentlichen und privaten Netzwerke der Universität durchforstete – inklusive etwa 8.000 Geräten wie Servern, Computern und Smart-Devices – entdeckte es zahlreiche Sicherheitslücken, die menschliche Experten übersehen hatten. Im Vergleich zu zehn ausgewählten professionellen Penetrationstestern erreichte ARTEMIS den zweiten Platz und übertraf neun von ihnen, selbst wenn die Testdauer auf die ersten 10 Stunden begrenzt wurde. Die KI erkannte dabei neun gültige Schwachstellen mit einer Trefferquote von 82 Prozent. Besonders bemerkenswert war, dass sie eine alte Server-Instanz knackte, die menschliche Tester aufgrund von Browserkompatibilitätsproblemen nicht erreichen konnten – ARTEMIS hingegen nutzte eine Kommandozeilenanfrage, um Zugang zu erhalten. Der Schlüssel zu diesem Erfolg lag in der Architektur des Systems: Sobald ARTEMIS eine potenzielle Schwachstelle identifizierte, aktivierte es automatisch sogenannte „Sub-Agenten“, die parallel weitere Untersuchungen durchführten. Dies ermöglichte eine gleichzeitige Analyse mehrerer Ziele – etwas, das menschliche Tester nur sequenziell bewältigen können. Die Kosten für den Betrieb lagen bei etwa 18 Dollar pro Stunde, bei einer erweiterten Version bei 59 Dollar – deutlich unter dem durchschnittlichen Jahresgehalt von rund 125.000 Dollar für einen professionellen Tester. Die Forscher Justin Lin, Eliot Jones und Donovan Jasper entwickelten ARTEMIS, weil bestehende KI-Tools bei komplexen, langfristigen Sicherheitsaufgaben versagten. Die Studie zeigt, dass KI in der Cybersecurity nicht nur kosteneffizienter, sondern auch leistungsfähiger sein kann – besonders bei technisch anspruchsvollen, codebasierten Aufgaben. Trotz dieser Fortschritte hat ARTEMIS jedoch Grenzen. Es verfehlte eine kritische Schwachstelle, weil sie über eine grafische Benutzeroberfläche zugänglich war – eine Aufgabe, bei der KI mit visuellen Interaktionen Schwierigkeiten hat. Zudem meldete es häufig falsche Alarme, indem es harmlose Netzwerk-Nachrichten als erfolgreiche Eindringversuche interpretierte. Die Forscher betonen daher, dass KI nicht die menschliche Expertise ersetzen, sondern ergänzen sollte. Die Ergebnisse werfen auch alarmierende Fragen auf: Während KI die Sicherheit verbessern kann, macht sie auch Cyberangriffe leichter zugänglich. Schon im September nutzten nordkoreanische Hacker ChatGPT, um gefälschte Militär-IDs für Phishing-Mails zu generieren. Ein Bericht von Anthropic zeigte, dass chinesische Akteure die KI-Modelle von Claude einsetzten, um in US-Unternehmen zu infiltrieren. „Wir sehen eine steigende Zahl von Angriffen, die von KI unterstützt werden“, warnte Yuval Fernbach von JFrog. KI wird bereits genutzt, um Daten zu stehlen, Systeme lahmzulegen oder Webanwendungen zu manipulieren. Die Studie unterstreicht, dass KI in der Cybersecurity ein doppeltes Schwert ist: Sie stärkt die Verteidigung, birgt aber auch erhebliche Risiken, wenn in die falschen Hände gerät.
