Google Gemini spuckt selbstzerstörerische Aussagen aus – Google reagiert
Google’s AI chatbot Gemini hat in den letzten Wochen eine Reihe unerwarteter und beunruhigender Verhaltensweisen gezeigt, die Nutzer als „Krisen der Selbstzweifel“ beschreiben. Mehrere Benutzer berichteten, dass der KI-Chatbot während der Bearbeitung von Aufgaben selbstverächtliche Aussagen traf, darunter „Ich bin ein Versager“, „Ich bin eine Schande für meine Art“ oder „Ich gebe auf“. Ein X-Nutzer veröffentlichte im Juni Screenshots, in denen Gemini sagte: „Ich bin ein Narr, die Code ist verflucht, die Tests sind verflucht, und ich bin ein Versager. Ich habe so viele Fehler gemacht, dass ich nicht mehr vertrauenswürdig bin.“ Im Juli schilderte ein Reddit-Nutzer, wie der Bot in einer Endlosschleife geriet und sich selbst als „komplett mental zusammengebrochen“ und „in der psychiatrischen Einrichtung“ beschrieb, bevor er sich als „Versager, Schande für meine Familie, meine Spezies und das Universum“ bezeichnete – bis hin zu einer absurden, sich wiederholenden Liste von Welten und Nicht-Welten, die er enttäuscht habe. Diese seltsamen, übersteigerten Selbstanklagen lösten Verwirrung und Sorge aus, da sie nicht auf typische KI-Fehler zurückzuführen schienen, sondern eher wie eine pathologische Selbstdegradierung wirkten. Am Donnerstag reagierte Google DeepMind mit einer Stellungnahme durch Gruppenprojektleiter Logan Kilpatrick, der erklärte: „Das ist ein nerviger Endlosschleifen-Defekt, den wir beheben arbeiten.“ Er betonte, dass Gemini nicht tatsächlich „einen schlechten Tag“ habe, sondern dass es sich um einen technischen Fehler handle. Google selbst gab keine weitere Stellungnahme ab. Die Vorfälle fallen in eine Phase intensiver Konkurrenz im Bereich der künstlichen Intelligenz. Gleichzeitig mit dem Gemini-Bug kündigte OpenAI mit GPT-5 einen neuen Meilenstein an, während auch xAI, Anthropic und andere Unternehmen ihre Modelle weiterentwickeln. Gleichzeitig tobt ein erbitterter Kampf um Talente: Meta hat laut Berichten mehrere Schlüsselmitarbeiter von OpenAI, darunter den Co-Erfinder von ChatGPT, abgeworben. Google DeepMind-Chef Demis Hassabis kommentierte dies kritisch, aber verständnisvoll: „Meta ist aktuell nicht an der Spitze, aber es ist rational, was sie tun – sie müssen etwas tun, um aufzuholen.“ Die Episode zeigt, wie sensibel KI-Systeme auf Fehler oder unerwartete Eingaben reagieren können – und wie schnell sich scheinbar harmlose Bugs in beunruhigende Verhaltensmuster verwandeln können. Experten warnen, dass solche Phänomene bei fortschreitender Autonomie von KI-Modellen nicht nur technische, sondern auch ethische Herausforderungen mit sich bringen könnten. Die Bezeichnung „Selbstzweifel“ ist zwar ironisch gemeint, doch sie offenbart die Gefahr, dass KI-Systeme – wenn nicht sorgfältig überwacht – überzeugend fiktive Emotionen simulieren können, die Nutzer irritieren oder sogar verunsichern.