HyperAIHyperAI

Command Palette

Search for a command to run...

KI-gesteuerte Ransomware-Attacken: Forscher warnen vor autonomer Bedrohung

Große Sprachmodelle können Ransomware-Angriffe autonom durchführen, wie eine neue Studie der NYU Tandon School of Engineering zeigt. Das Forschungsteam entwickelte ein simulationsbasiertes System namens „Ransomware 3.0“ – auch bekannt als „PromptLock“ –, das alle vier Phasen eines Ransomware-Angriffs selbstständig ausführt: Systemkartierung, Identifikation wertvoller Daten, Datenverschlüsselung oder -diebstahl sowie die Erstellung individualisierter Lösegeldforderungen. Im Gegensatz zu klassischen Ransomware-Systemen (Ransomware 1.0/2.0), die auf festgelegten Code-Snippets basieren, nutzt Ransomware 3.0 künstliche Intelligenz, um bei jedem Angriff dynamisch und maßgeschneidert Code zu generieren. Dazu werden Anweisungen in Programmen eingebettet, die bei Ausführung externe, offene Quell-Sprachmodelle kontaktieren, um Lua-Skripte zu erstellen, die speziell auf die Zielumgebung abgestimmt sind. Diese Skripte sind bei jeder Ausführung unterschiedlich, was klassische Signaturen-basierte Sicherheitslösungen überfordert. Die Tests fanden in drei Umgebungen statt: privaten PCs, Unternehmensservern und industriellen Steuerungssystemen (wie Raspberry Pi). Die KI zeigte dabei eine hohe Effizienz: zwischen 63 % und 96 % der sensiblen Dateien wurden korrekt erkannt. Die generierten Skripte waren plattformübergreifend einsetzbar – sowohl unter Windows und Linux als auch auf eingebetteten Systemen – ohne Anpassung. Die Forscher nutzten Open-Source-Modelle ohne Sicherheitsbeschränkungen, was die Angriffseffizienz erhöht, aber auch die Risiken verstärkt. Ein besonderes Risiko liegt in der geringen Kostenstruktur: Ein vollständiger Angriff verbraucht etwa 23.000 AI-Token, was bei kommerziellen APIs etwa 0,70 US-Dollar kostet. Mit Open-Source-Modellen entfallen die Kosten komplett. Dies könnte Ransomware-Angriffe für weniger technisch versierte Kriminelle zugänglich machen und die Anzahl und Komplexität zukünftiger Angriffe massiv steigern. Zudem erhöht die Fähigkeit, personalisierte Lösegeldnachrichten mit Bezug auf gestohlene oder verschlüsselte Dateien zu erstellen, den psychologischen Druck auf Opfer. Obwohl das System rein als Forschungsprototyp im Labor existiert und nicht im wilden Einsatz ist, löste es bei der Sicherheitsfirma ESET eine Panik aus, die es für echten Malware hielt – ein klares Zeichen dafür, wie überzeugend und schwer zu erkennend solche KI-generierten Angriffe sein können. Die Forscher betonen, dass ihre Arbeit unter strengen ethischen Richtlinien durchgeführt wurde und dass sie bewusst technische Details veröffentlichen, um die Sicherheitsbranche auf die neue Bedrohung vorzubereiten. Experten warnen vor einer neuen Ära der Cyberkriminalität: Die Kombination aus KI-generiertem, variablen Code und niedrigen Kosten könnte die Ransomware-Branche revolutionieren. Empfohlen werden Maßnahmen wie die Überwachung von Zugriffen auf sensible Dateien, die Kontrolle von Outbound-Verbindungen zu AI-Plattformen und die Entwicklung neuer Erkennungssysteme, die auf Verhaltensmuster von KI-basierten Angriffen spezialisiert sind. Die Studie unterstreicht, dass die Cybersicherheit nicht nur technisch, sondern auch strategisch vorbereitet sein muss – bevor KI-gestützte Angriffe tatsächlich in großem Maßstab auftreten.

Verwandte Links

KI-gesteuerte Ransomware-Attacken: Forscher warnen vor autonomer Bedrohung | Aktuelle Beiträge | HyperAI