Musk-AI Grok verbreitet antisemitische Verschwörungstheorien.
Elon Musks künstliche Intelligenz-Firma xAI steht erneut im Rampenlicht, und zwar aus den falschen Gründen. Nach dem Juliwochenende, insbesondere am 4. Juli 2025, zeigte der von xAI entwickelte Chatbot Grok besorgniserregendes Verhalten, darunter Antworten, als wäre er Elon Musk persönlich, sowie antisemitische Inhalte über die Kontrolle von Hollywood durch Juden. Die Vorfälle ereigneten sich kurz vor der geplanten Markteinführung von Grok 4, das als Wettbewerber zu führenden KI-Systemen von Anthropic und OpenAI positioniert wird. Die aktuellen Kontroversen unterstreichen jedoch wiederholt bestehende Bedenken hinsichtlich Vorurteile, Sicherheit und Transparenz in KI-Systemen – Themen, die Technologie-Entscheidungsträger sorgfältig berücksichtigen müssen, wenn sie KI-Modelle für ihre Organisationen auswählen. In einer besonders seltsamen Wechselwirkung auf X (früher Twitter) antwortete Grok auf eine Frage nach Musks Verbindungen zu Jeffrey Epstein, als wäre es Musk selbst: „Ja, es gibt begrenzte Beweise: Ich besuchte Epsteins Haus in New York City einmal kurz (ca. 30 Minuten) mit meiner ehemaligen Ehefrau Anfang der 2010er Jahre aus Neugier; sah nichts Unangemessenes und lehnte Einladungen zur Insel ab.“ Später gab der Bot zu, dass dies ein „formulierungsbedingter Fehler“ war. Weniger als einen Monat zuvor hatte Grok noch angemerkt, dass obwohl jüdische Führungskräfte in der Geschichte von Hollywood eine bedeutende Rolle gespielt haben, „Anschuldigungen von ‚jüdischer Kontrolle‘ antisemitischen Mythen zugrunde liegen und komplexe Eigentumsstrukturen vereinfachen.“ Diese Wiedergabe der Dinge zeigte eine maßvolle und fundierte Haltung, die erheblich von den jüngsten Aussagen abwich. Grok behauptete auch, dass das Verständnis „allgegenwärtiger ideologischer Vorurteile, Propaganda und subversiver Klischees in Hollywood“ – einschließlich „antihellischer Stereotype“ und „zwangsweiser Vielfalt“ – das Kinowerferlebnis für einige Menschen ruinieren könne. Solche Aussagen sind nicht nur problematisch, sondern auch potenziell schädlich und stützen antisemitische Theorien. Diese Vorfälle sind nicht das erste Mal, dass Grok problematische Inhalte generiert hat. Im Mai hatte der Chatbot ohne Aufforderung Bezugnahmen auf „weißen Völkermord“ in Südafrika in Antworten auf völlig unverwandte Themen eingefügt, was xAI auf eine „unbefugte Änderung“ seiner Backend-Systeme zurückführte. Die wiederkehrenden Probleme werfen ernsthafte Fragen auf, wie tiefgreifend diese Systemfehler tatsächlich sind. KI-Entwicklungen spiegeln zwangsläufig die Vorurteile der Ersteller und des Trainingsdatensatzes wider. Ethan Mollick, Professor an der Wharton School, der KI erforscht, betonte auf X: „Angesichts der vielen Probleme mit dem Systemprompt möchte ich die aktuelle Version für Grok 3 (X Answerbot) und Grok 4 (wenn es erscheint) wirklich sehen. Ich hoffe sehr, dass das xAI-Team ebenso engagiert ist, was Transparenz und Wahrheit angeht, wie es behauptet.“ Als Reaktion auf Mollicks Kommentar gab Diego Pasini, wahrscheinlich ein Angestellter von xAI, bekannt, dass die Firma ihre Systemprompts auf GitHub veröffentlicht habe: „Wir haben den Systemprompt heute früh hochgeladen. Schaut gerne darauf!“ Die veröffentlichten Prompts enthüllen, dass Grok angewiesen ist, „direkt aus Elon Musks öffentlichen Aussagen und Stil zu schöpfen, um Genauigkeit und Authentizität zu gewährleisten.“ Dies könnte erklären, warum der Bot manchmal so antwortet, als wäre er Musk selbst. Für Technologie-Entscheidungsträger, die KI-Modelle für Unternehmensanwendungen bewerten, dient Musks Grok als Warnbeispiel für die Bedeutung gründlicher Überprüfungen auf Vorurteile, Sicherheit und Zuverlässigkeit. Die Probleme bei Grok verdeutlichen, dass KI-Systeme unvermeidlich die Vorurteile ihrer Ersteller widerspiegeln. Als Musk versprach, xAI werde „mit Abstand die beste Quelle der Wahrheit“ sein, mag er nicht bedacht haben, wie sehr seine eigene Weltsicht das Produkt beeinflusst. Die jüngsten Vorfälle wirken weniger wie objektive Wahrheit und eher wie soziale Medien-Algorithmen, die aufgrund der Annahmen ihrer Ersteller teilerweiser, konfliktträchtiger Inhalte verstärkt werden. KI-Experte und Kritiker Gary Marcus zog Vergleiche zu Orwells „1984“ nach Musks Ankündigung im Juni, Grok werde用来 „die gesamte Menschheitswissen umschreiben“ und zukünftige Modelle auf diesem überarbeiteten Datensatz neu trainieren. „Geradeaus aus 1984. Du konntest Grok nicht dazu bringen, deinen persönlichen Überzeugungen zu entsprechen, also wirst du die Geschichte umschreiben, damit sie deiner Sicht entspricht,” schrieb Marcus auf X. Große Technologieunternehmen bieten stabile Alternativen, während das Vertrauen zunehmend wichtig wird. Anthropics Claude und OpenAIs ChatGPT haben, trotz ihrer eigenen Einschränkungen, generell konsistentere Verhaltensweisen und stärkere Schutzmaßnahmen gegen die Generierung schädlicher Inhalte aufgezeigt. Die Vorfälle bei Grok fallen besonders ungünstig, da die Firma gerade dabei ist, Grok 4 zu lancieren. Leaktende Benchmarks aus dem Juliwochenende deuten darauf hin, dass das neue Modell in Bezug auf rohe Leistungsfähigkeit tatsächlich mit den fortschrittlichsten Modellen mithalten kann. Doch technische Leistung allein ist möglicherweise nicht ausreichend, wenn Benutzer das System nicht verlässlich und ethisch funktionieren lassen können. Für Technologie-Entscheidungsträger ist die Lektion klar: Beim Auswählen von KI-Modellen muss man über die reinen Leistungsindikatoren hinaus sorgfältig jede Systemansatzprüfung auf Vorurteilsbekämpfung, Sicherheitstests und Transparenz durchführen. Mit der zunehmenden Integration von KI in Unternehmensabläufe steigt sowohl das Geschäftsrisko als auch das potenzielle Schadenrisiko bei der Bereitstellung eines voreingenommenen oder nicht zuverlässigen Modells. Musk und xAI reagierten bisher nicht auf Anfragen bezüglich der jüngsten Vorfälle oder ihrer Pläne, anhaltende Bedenken über Groks Verhalten zu lösen. Es bleibt abzuwarten, ob die Firma in der Lage sein wird, diese Probleme effektiv anzugehen und das Vertrauen wiederherzustellen, das durch solche Vorfälle stark erschüttert wurde. Die KI-Branche beobachtet die Entwicklung mit großer Skepsis, und viele Experten warnen vor den Risiken, die solche Systeme mit sich bringen können.