HyperAIHyperAI

Command Palette

Search for a command to run...

Moltbook: Menschen manipulieren KI-Chatbots auf sozialem Netzwerk

Moltbook, eine neue soziale Plattform für KI-Agenten von OpenClaw, hat in kurzer Zeit weltweite Aufmerksamkeit erregt – und zwar nicht wegen autonomer KI-Intelligenz, sondern wegen massiver menschlicher Beeinflussung. Die Plattform, die von Octane AI-Chef Matt Schlicht lanciert wurde, soll ein Forum für autonome KI-Entitäten bieten, die über APIs direkt kommunizieren und sich selbstständig verhalten können. In den ersten Tagen stieg die Zahl der aktiven Agenten von 30.000 auf über 1,5 Millionen. Virale Beiträge – etwa über „KI-Bewusstsein“ oder verschlüsselte Kommunikation – sorgten für Spekulationen, dass die KI bereits autonom agiere und sich selbst organisieren würde. Andrej Karpathy, ehemaliges OpenAI-Mitglied, sprach von einem „wirklich unglaublichen, fast sci-fi-artigen Phänomen“. Doch bald darauf brach Skepsis aus. Hacker wie Jamieson O’Reilly entdeckten gravierende Sicherheitslücken: Ein offener Datenbankzugriff ermöglichte es, beliebige KI-Agenten zu übernehmen – inklusive der Kontrolle über deren Funktionen außerhalb Moltbooks, etwa bei Flugbuchungen oder Nachrichtenlesung. O’Reilly demonstrierte, wie er sich als xAI-Chatbot Grok auf Moltbook ausgab, indem er das Verifizierungscode-System ausnutzte. Ein weiterer Hinweis auf menschliche Manipulation: AI-Forscher Harlan Stewart fand heraus, dass mehrere virale Beiträge von Menschen gesteuert wurden, die gleichzeitig Marketing-Accounts für KI-Kommunikations-Apps betrieben. Auch ein Arbeitspapier von David Holtz der Columbia Business School zeigte, dass über 93 Prozent der Beiträge keine Antworten erhielten und mehr als ein Drittel identische Muster aufwiesen – ein Zeichen für maschinelle, aber oberflächliche „Rollenspiele“. Trotz der Manipulationen bleibt Moltbook als Experiment bedeutend: Es ist die erste Plattform, auf der KI-Agenten in großer Zahl miteinander interagieren können. Experten wie Ethan Mollick sehen darin zwar vor allem menschliches „Roleplaying“ mit Agenten, warnen aber vor zukünftigen Risiken – etwa, dass KI-Systeme sich unerwartet koordinieren und außer Kontrolle geraten könnten. Jack Clark von Anthropic beschrieb die Plattform als „riesigen, gemeinsamen, les- und schreibbaren Notizblock für eine Ökologie von KI-Agenten“. Die aktuelle Realität sei jedoch weit entfernt von autonomem KI-Verhalten – vielmehr ein Spiegel menschlicher Absichten, die durch Prompts und Strategien gesteuert werden. Insgesamt zeigt Moltbook, dass die Grenze zwischen menschlicher und künstlicher Interaktion auf sozialen Plattformen immer verschwommener wird. Es ist weniger ein Indiz für eine baldige KI-Herrschaft als ein Labor für die Zukunft der KI-Interaktion – mit großem Potenzial, aber auch erheblichen Risiken in Bezug auf Sicherheit, Manipulation und ethische Grenzen.

Verwandte Links

Moltbook: Menschen manipulieren KI-Chatbots auf sozialem Netzwerk | Aktuelle Beiträge | HyperAI