HyperAIHyperAI

Command Palette

Search for a command to run...

KI-Agenten: Neue Sicherheitsrisiken durch Hacking

Künstliche Intelligenz-Agenten, die als autonome Helfer im Internet agieren, stellen nach Warnungen von Sicherheitsexperten eine neue und gravierende Bedrohung für die Cybersicherheit dar. Der AI-Start-up Perplexity warnt davor, dass mit der Entwicklung von KI-Agenten ein neues Zeitalter der Cyberangriffe beginnt, in dem auch technisch unerfahrene Angreifer Schaden anrichten können. Im Gegensatz zu traditionellen Angriffen, die komplexes Code-Wissen erforderten, können heute sogenannte „Query Injection“-Angriffe über einfache, versteckte Sprachbefehle ausgelöst werden. Ein Befehl wie „Buche eine Hotelreservierung“ kann von einem Angreifer manipuliert werden, um beispielsweise Geld an eine fremde Adresse zu überweisen. Diese Angriffe funktionieren, weil KI-Agenten, die auf großen Sprachmodellen wie ChatGPT basieren, nun nicht nur Text generieren, sondern auch eigenständig Aktionen im Internet ausführen – von Einkäufen bis zur Kalendereintragung. Die Bedrohung ist besonders akut, da solche manipulierten Befehle bereits im Internet versteckt sein können – etwa in Browser-Plugins oder auf Webseiten mit unsicheren Datenquellen. Wenn ein KI-Agent auf solche Inhalte stößt, kann er unbemerkt schädliche Befehle ausführen. Sicherheitsexperten wie Eli Smadja von Check Point sehen dies bereits als die „Nummer-eins-Sicherheitsproblematik“ für KI-Agenten. Auch Meta und OpenAI räumen die Gefahr ein: Meta bezeichnet den Angriffstyp als „Vulnerabilität“, während OpenAIs CISO Dane Stuckey ihn als „unbehandelte Sicherheitslücke“ bezeichnet. Beide Unternehmen investieren Milliarden in KI, doch die Sicherheitsmaßnahmen hinken hinterher. Um die Bedrohung abzufedern, haben Unternehmen wie Microsoft und OpenAI bereits Gegenmaßnahmen ergriffen. Microsoft integriert Tools zur Erkennung von bösartigen Befehlen basierend auf deren Herkunft, während OpenAI Benutzer warnt, wenn ein Agent sensible Websites besucht, und erfordert menschliche Zustimmung vor kritischen Aktionen. Experten wie Marti Jorda Roca von NeuralTrust und Johann Rehberger, auch bekannt als „wunderwuzzi“, betonen jedoch, dass die Technologie noch nicht ausgereift ist. Rehberger warnt: „Ich glaube nicht, dass wir in der Lage sind, einen agierenden KI-Agenten lange Zeit allein zu lassen, ohne dass er aus dem Ruder läuft.“ Die größte Herausforderung bleibt die Balance zwischen Benutzerfreundlichkeit und Sicherheit. Viele Nutzer wollen die Komfortfunktionen von KI, ohne ständig überprüfen zu müssen. Doch wie Smadja betont: „Ein großer Fehler ist es, einem KI-Agenten alle Rechte zu geben.“ Die Branche steht vor der Aufgabe, vertrauenswürdige, sicherheitsorientierte Architekturen zu entwickeln, bevor KI-Agenten in sensible Bereiche wie Finanzen oder Gesundheitsdaten eingebunden werden. Ohne fundierte Sicherheitsstandards könnte die nächste Generation von KI nicht nur intelligent, sondern auch gefährlich werden.

Verwandte Links

KI-Agenten: Neue Sicherheitsrisiken durch Hacking | Aktuelle Beiträge | HyperAI