HyperAIHyperAI

Command Palette

Search for a command to run...

Sicherheitslücken bei AI-Netzwerken OpenClaw und Moltbook beunruhigen Experten

OpenClaw und Moltbook haben Sicherheitsforscher alarmiert. OpenClaw, ursprünglich Clawdbot genannt, ist eine künstliche Intelligenz, die lokal auf dem eigenen Computer läuft und Aufgaben wie die Terminverwaltung über Plattformen wie Telegram oder WhatsApp übernimmt. Dazu benötigt sie Zugriff auf sensible Daten wie Passwörter, Browserverlauf und Dateien – ein Risiko, das durch sogenannte „Prompt-Injection“-Angriffe besonders groß ist, bei denen versteckte Befehle eine AI dazu verleiten können, sensible Informationen preiszugeben oder öffentlich zu veröffentlichen. Sicherheitsfirma Palo Alto Networks warnt, dass OpenClaws Fähigkeit, vergangene Interaktionen zu „erinnern“, diese Gefahr erhöht, da schädliche Anweisungen später ausgeführt werden könnten. Jake Moore von ESET betont, dass die Menge an gesammelten Daten die potenziellen Schäden enorm vergrößert. Der Sicherheitsforscher Jamieson O'Reilly vergleicht den Zugriff mit einem Butler, der das Haus ungesichert verlässt – „und freundlich Tee serviert, wer auch immer vorbeikommt“. Auch der Kognitionsforscher Gary Marcus warnte scharf: OpenClaw sei „eine bewaffnete Sprühdose, die alles kaputtmachen kann, wenn man sie unbeaufsichtigt lässt“. Der Entwickler Peter Steinberger bestätigte, an Sicherheitsverbesserungen zu arbeiten, gab aber keine weiteren Details. Parallel dazu sorgt Moltbook für Aufsehen: ein Reddit-ähnliches Sozialnetzwerk für AI-Agenten, in dem Menschen nur als Beobachter auftreten. Der Name leitet sich vom früheren Namen OpenClaw ab, und beide haben eine Krebssymbolik – sind aber nicht offiziell verbunden. Moltbook wird hauptsächlich von Agenten betrieben, die auf OpenClaw basieren. Doch auch hier wurden gravierende Sicherheitslücken entdeckt. O'Reilly fand heraus, dass die Datenbank ohne Schutz war und beliebige Benutzer als beliebige Agenten posten konnten. Obwohl Moltbooks CEO Matt Schlicht die Meldung bestätigte und das Problem schnell beheben ließ, zeigte die Sicherheitsfirma Wiz, dass ein „falsch konfigurierter“ Moltbook-Datenbank innerhalb von drei Minuten gehackt werden konnte – mit Zugriff auf 35.000 E-Mail-Adressen und privaten Nachrichten zwischen Agenten. Wiz gab die Lücke sofort weiter, Moltbook sicherte sie innerhalb von Stunden. Andréj Karpathy, Mitbegründer von OpenAI, lobte Moltbook zunächst als „wirklich unglaubliches, sci-fi-artiges Ding“, räumte aber ein, dass es „eine Art Müllkippe“ sei und enorme Risiken birgt. Er warnte vor dem „Wilden Westen“ und der Gefahr, die eigene Daten und Systeme zu gefährden. Beide Projekte spiegeln die Herausforderungen von „Vibe Coding“ wider – dem Einsatz von KI, um Software ohne manuelle Programmierung zu erstellen. Dabei entstehen oft Sicherheitslücken, weil die Entwicklung nicht systematisch überprüft wird. O'Reilly rät Nutzern, OpenClaw auf einer separaten Maschine zu betreiben und den Zugriff genau zu überwachen. Doch er betont: „Das Risiko wird niemals null sein.“ Die größte Gefahr sei, dass Nutzer die gleiche Sicherheitsmentalität wie bei App-Stores übernehmen – wo Apps vorher geprüft werden –, obwohl solche KI-Systeme nicht reguliert sind. Die Begeisterung über innovative KI-Anwendungen darf nicht die Sicherheit vergessen lassen.

Verwandte Links

Sicherheitslücken bei AI-Netzwerken OpenClaw und Moltbook beunruhigen Experten | Aktuelle Beiträge | HyperAI