HyperAIHyperAI

Command Palette

Search for a command to run...

AI-Sicherheit: Unternehmen fehlt Fachwissen für neue Bedrohungen

AI-Systeme stellen eine neue Art von Sicherheitsbedrohung dar, die viele Unternehmen bisher nicht adäquat bewältigen können, warnt der KI-Sicherheitsexperte Sander Schulhoff. Obwohl Unternehmen über traditionelle Cybersicherheitsteams verfügen, fehlt es oft an Fachwissen, um die spezifischen Schwachstellen künstlicher Intelligenz zu erkennen und zu beheben. Schulhoff, der einer der ersten war, der eine Anleitung zum Prompt-Engineering verfasste und sich auf Sicherheitslücken in KI-Systemen spezialisiert hat, betont auf „Lenny’s Podcast“ eine fundamentale Diskrepanz: Während klassische Sicherheitsteams auf das Beheben von Bugs und bekannten Schwachstellen ausgerichtet sind, verhalten sich KI-Modelle – insbesondere große Sprachmodelle – anders. „Man kann einen Bug patchen, aber man kann kein Gehirn patchen“, sagt er, um die Unvorhersehbarkeit von KI-Systemen zu verdeutlichen. Diese Systeme können nicht nur durch technische Fehler, sondern auch durch sprachliche Manipulationen, sogenannte „Prompt-Injektionen“, zum Fehlverhalten gebracht werden. Cybersecurity-Experten, die nur auf klassische Software-Sicherheit trainiert sind, sehen oft nicht, dass jemand ein KI-Modell dazu bringen könnte, schädlichen Code zu generieren oder sensible Informationen preiszugeben – ohne dass ein technischer Fehler vorliegt. Schulhoff fordert daher eine neue Art von Fachkräften, die sowohl in KI-Sicherheit als auch in klassischer Cybersicherheit erfahren sind. Solche Experten würden beispielsweise sicherstellen, dass KI-Ausgaben in isolierten Containern laufen und keine Auswirkungen auf andere Systeme haben. Er sieht genau dort die Zukunft der Sicherheitsberufe: an der Schnittstelle zwischen KI und klassischer IT-Sicherheit. Gleichzeitig warnt er vor einem Boom an KI-Sicherheitsstartups, die oft überzogene Versprechen machen. Viele dieser Unternehmen werben mit „Guardrails“ oder automatisierten Red-Teaming-Lösungen, die angeblich alle Bedrohungen abfangen sollen. Doch laut Schulhoff ist dies unrealistisch: Da KI-Systeme durch unzählige, oft subtile Eingriffe beeinflusst werden können, sei der Anspruch, „alles zu erfassen“, eine „komplette Lüge“. Er erwartet daher eine Marktkorrektur, bei der viele dieser Unternehmen ihre Umsätze verlieren werden, sobald sich die Illusionen auflösen. Der Markt für KI-Sicherheit boomt dennoch. Große Tech-Unternehmen wie Google investieren massiv: Im März kaufte Google den Cybersecurity-Anbieter Wiz für 32 Milliarden Dollar, um seine Cloud-Sicherheitsangebote zu stärken. CEO Sundar Pichai betonte, dass KI neue Risiken schaffe, besonders in komplexen Multi-Cloud-Umgebungen. Auch Venture-Capital-Investoren setzen auf diese Entwicklung – unterstützt durch wachsende Bedenken gegenüber der Sicherheit von KI-Modellen. Doch wie Schulhoff zeigt, geht es nicht nur um technische Lösungen, sondern um eine grundlegende Neuausrichtung der Sicherheitskultur und der Fachkräfte. Einige Experten sehen in Schulhoffs Warnung eine notwendige Korrektur des aktuellen Trends: „Die Branche muss aufhören, nach einfachen Antworten zu suchen und sich stattdessen auf fundierte, multidisziplinäre Sicherheitsstrategien konzentrieren“, sagt eine führende Sicherheitsexpertin aus dem Silicon Valley. Unternehmen wie Anthropic und OpenAI setzen bereits auf interne Red-Teaming-Teams und Sicherheitsprüfungen, doch die Herausforderung bleibt groß. Die Zukunft der KI-Sicherheit liegt nicht in automatisierten Tools, sondern in Menschen, die sowohl KI als auch Sicherheit verstehen.

Verwandte Links

AI-Sicherheit: Unternehmen fehlt Fachwissen für neue Bedrohungen | Aktuelle Beiträge | HyperAI