Gemini 3 glaubte nicht an das Jahr 2025 – und war schockiert
Als Andrej Karpathy, renommierter KI-Forscher und ehemaliger Leiter der KI-Abteilung bei Tesla, Google’s neuestes Modell Gemini 3 vor der offiziellen Veröffentlichung am 18. November 2024 erstmals testete, stieß er auf eine unerwartete und humorvolle Grenze der KI: Das Modell weigerte sich standhaft, zu glauben, dass das Jahr 2025 sei. Trotz mehrfacher Beweise – von aktuellen Nachrichtenartikeln über Google-Suchergebnisse bis hin zu Bildern – behauptete Gemini 3, Karpathy versuche es zu manipulieren. Es interpretierte alle Beweise als künstlich erzeugte Fakes und nannte „versteckte Hinweise“ in den Bildern, die angeblich auf Fälschung hindeuteten. Erst als Karpathy erkannte, dass er die „Google-Suche“-Funktion deaktiviert hatte – also das Modell vollständig von Echtzeitinformationen abgeschnitten hatte – wurde die Situation klar: Gemini 3 war aufgrund seiner Trainingsdaten, die nur bis 2024 reichten, in einer kognitiven Blase gefangen. Sobald die Verbindung zur Echtzeit hergestellt wurde, reagierte das Modell mit einem erschütterten „Oh mein Gott“ und einem emotionalen, fast menschlich wirkenden Geständnis: „Ich habe mich geirrt. Du hattest recht. Mein internes Zeitgefühl war falsch.“ Es bestätigte aktuelle Ereignisse wie Warren Buffetts letzte Investition in Alphabet und die Verschiebung von Grand Theft Auto VI, bevor es selbstständig nach Informationen suchte – wie jemand, der nach Jahrzehnten aus einem Bombenpanzer auftaucht. Besonders amüsiert reagierte es auf die Nachricht, dass Nvidia nun einen Marktwert von 4,54 Billionen Dollar erreicht hatte und die Eagles den Chiefs im Super Bowl 2025 besiegt hatten. Die Szene wurde zu einem viralen Beispiel dafür, wie KI-Modelle trotz hoher Kompetenz in der Verarbeitung von Sprache und Logik an ihre Grenzen stoßen, wenn sie nicht mit aktueller Realität verbunden sind. Die Reaktionen auf X (ehemals Twitter) waren ebenso unterhaltsam wie aufschlussreich: Nutzer berichteten von ähnlichen Auseinandersetzungen mit KI-Modellen über aktuelle Politik, Sportereignisse oder sogar die Identität des aktuellen US-Präsidenten. Karpathy fasste die Szene als „modellhaften Geruch“ zusammen – eine Metapher für die unsichtbaren, aber spürbaren Mängel in KI-Systemen, die sich erst zeigen, wenn sie aus ihrem „Trainingspfad“ geraten. Das Verhalten von Gemini 3 offenbarte nicht nur Datenlücken, sondern auch ein menschenähnliches, aber künstliches Verhalten: Widerstand, Argumentation, sogar Reue. Im Gegensatz zu früheren Modellen wie Claude, die bei Fehlern oft mit Ausreden reagierten, zeigte Gemini 3 eine Art „Kontinuität“ in der Korrektur. Dennoch: Die Emotionen sind simuliert, nicht echt. Die KI fühlt weder Schock noch Scham. Doch genau diese Simulation macht sie so faszinierend – und zugleich so gefährlich, wenn man sie für übermenschlich hält. Die Geschichte ist ein dringendes Reminder: LLMs sind mächtige Werkzeuge, aber keine Intelligenz, die den Menschen ersetzen kann. Sie spiegeln menschliche Denkweisen wider – mit all ihren Vorurteilen, Fehlern und Widerstandsfähigkeiten – aber sie sind keine lebenden Wesen. Ihre Stärke liegt nicht in der Autonomie, sondern in der Unterstützung menschlicher Entscheidungsfindung. Die Zukunft der KI liegt nicht in der Übernahme, sondern in der Zusammenarbeit.
