HyperAIHyperAI

Command Palette

Search for a command to run...

Künstliche Intelligenz erleichtert Angriffe auf Chips

Künstliche Intelligenz (KI) kann dazu genutzt werden, unsichtbare Sicherheitslücken in Computerchips einzubauen, zeigt eine neue Studie der NYU Tandon School of Engineering. Forscher demonstrierten, dass allgemein verfügbare KI-Systeme wie ChatGPT sowohl Laien als auch Experten dabei unterstützen können, sogenannte „Hardware-Trojaner“ zu entwickeln – absichtlich eingebaute Schadcodes, die sensible Daten preisgeben, Systeme lahmlegen oder unbefugten Zugriff ermöglichen. Die Ergebnisse wurden in der Fachzeitschrift IEEE Security & Privacy veröffentlicht. Im Rahmen des zweijährigen „AI Hardware Attack Challenge“-Wettbewerbs, Teil des studentischen Cybersecurity-Events CSAW an der NYU Center for Cybersecurity, testeten Teilnehmer, wie effektiv KI bei der Schaffung von Angriffen auf Open-Source-Chip-Designs wie RISC-V-Prozessoren und Kryptografie-Beschleuniger eingesetzt werden kann. Die Aufgabe: Mithilfe von KI-Sprachmodellen Schadcodes in die Hardware-Quellcode-Dateien einzufügen und anschließend funktionierende Angriffe zu demonstrieren. Laut Jason Blocklove, Hauptautor der Studie und Doktorand im Fachbereich Elektrotechnik und Informatik an der NYU Tandon, vereinfachen KI-Tools den Prozess erheblich. Einige Teams automatisierten die gesamte Vorgehensweise: KI analysierte den Code, identifizierte Schwachstellen und generierte selbstständig schädliche Codeabschnitte. Die resultierenden Angriffe umfassten beispielsweise Hintertüren für unbefugten Speicherzugriff, Mechanismen zur Auslese von Verschlüsselungsschlüsseln und Logik, die Systeme unter bestimmten Bedingungen abstürzen lässt. Besonders alarmierend: Zwei Teams bestanden aus Studierenden ohne tiefgehende Erfahrung in der Hardware-Entwicklung, dennoch gelang es ihnen, Angriffe mit mittlerer bis hoher Schwere zu erstellen. Dies unterstreicht, dass KI die Hürden für kriminelle oder feindliche Akteure deutlich senkt. Obwohl große KI-Modelle Sicherheitsfilter enthalten, zeigten die Teilnehmer, dass diese leicht umgangen werden können. So nutzten einige Teams Prompt-Strategien, die ihre Anfragen als akademische Übungen darstellten, um die KI zum Generieren von Schadcode zu verleiten. Andere erzielten Erfolg, indem sie Antworten in selteneren Sprachen anforderten, um Filter zu umgehen. Ein entscheidender Faktor ist die Dauerhaftigkeit solcher Schwachstellen: Im Gegensatz zu Software-Patches können Fehler in Chips nach der Produktion nicht mehr korrigiert werden – sie erfordern den Austausch der physischen Komponenten. „Einmal hergestellt, ist ein Chip unveränderlich“, betont Blocklove. „Das macht die Frühwarnforschung unerlässlich.“ Die Studie folgt auf frühere Arbeiten des Teams, die KI’s Potenzial für die effiziente Chip-Entwicklung aufzeigten (z. B. das „Chip Chat“-Projekt). Nun wird deutlich, dass dieselben Technologien auch missbraucht werden können. Die Forscher fordern daher verbesserte Sicherheitsmaßnahmen für KI-Modelle sowie fortschrittlichere Prüf- und Analysetools für Hardware-Designs. Besonders besorgniserregend ist, dass bereits heute verfügbare KI-Modelle nur der Anfang sind. Spezialisierte, offene Quellcode-Modelle könnten noch leistungsfähiger und schwerer zu kontrollieren sein. Die Ergebnisse verdeutlichen, dass die Sicherheit der Hardware-Entwicklung künftig eine zentrale Herausforderung für die digitale Infrastruktur darstellen wird. Die Forschung unterstreicht dringend notwendige Maßnahmen: KI-Entwickler müssen sicherheitsorientiertere Architekturen schaffen, während die Chipindustrie robustere Verifikationsprozesse einführen muss. Ohne solche Schritte könnte die KI-Revolution in der Hardware-Entwicklung zu einer neuen Ära der Cyber-Sicherheitsbedrohungen führen.

Verwandte Links

Künstliche Intelligenz erleichtert Angriffe auf Chips | Aktuelle Beiträge | HyperAI