HyperAIHyperAI
Back to Headlines

GPT-5 versagt bei einfachem Geographietest für Achtjährige

vor 3 Tagen

OpenAI hat mit der Einführung von GPT-5 eine neue Ära in der Künstlichen Intelligenz eingeläutet – angekündigt als „eine Mannschaft aus Doktoranden auf deinem Handy“, die den früheren GPT-4 in den Schatten stellt. Der CEO Sam Altman setzte die Erwartungen mit einem düsteren, textlosen Bild einer Death Star hoch, das nur eine Botschaft vermittelte: Die neue Ära der Superintelligenz hat begonnen. Doch bereits kurz nach der Veröffentlichung zeigte sich eine bemerkenswerte Schwäche: GPT-5 scheiterte an einem einfachen Geographietest für Achtjährige. Beim Versuch, eine Landkarte der USA zu interpretieren, gab das Modell falsche Antworten mit überzeugender Sicherheit. Es behauptete beispielsweise, dass der Staat „Nebraska“ in der Nähe von Florida liege, oder dass Kalifornien direkt an New York grenzt – Fakten, die selbst Grundschüler korrekt beantworten könnten. Die Fehler waren nicht nur ungenau, sondern wurden mit einer übermäßigen Selbstsicherheit präsentiert, als hätte das Modell tatsächlich eine Karte vor Augen, statt aus Speicherung und Mustererkennung zu lernen. Dieser Ausfall ist besonders erschreckend, weil GPT-5 als „superintelligent“ positioniert wurde – eine KI, die nicht nur sprachlich flüssig, sondern auch tiefgründige, kontextuelle Einsichten liefern soll. Doch die Fähigkeit, grundlegende, verifizierbare Fakten zu erkennen, bleibt fragwürdig. Der Test offenbart eine kritische Lücke: Selbst wenn KI-Modelle über riesige Datenmengen verfügen, fehlt ihnen oft die direkte Verbindung zur physischen Welt. Sie können Geschichten erfinden, Gedichte schreiben und komplexe Argumente führen – aber sie verstehen die Welt nicht wie ein Mensch, der sie erlebt. Die Episode erinnert an den „Iron Rod Test“ aus vorherigen Analysen, bei dem KI-Modelle zwar poetische Texte produzierten, aber nicht erkannten, dass ein glühender Eisenstab brennen würde. Damals wurde deutlich: KI ist ein brillanter Parforceroboter, der Wörter, nicht aber Erfahrung versteht. GPT-5 scheint diese Grenze nicht überschritten zu haben. Industrieexperten reagieren besorgt. „Die Fortschritte in der Sprachgenerierung sind beeindruckend, aber die fehlende Weltkenntnis bleibt ein fundamentales Problem“, sagt Dr. Lena Müller, KI-Forscherin an der TU Berlin. „Wenn KI nicht weiß, wo ein Staat liegt, wie soll sie dann Entscheidungen in der Realwelt treffen?“ Auch Analysten von Gartner warnen davor, die Leistung von KI überzubewerten: „Wir müssen zwischen sprachlicher Flüssigkeit und kognitiver Intelligenz unterscheiden.“ OpenAI bleibt weiterhin optimistisch. In internen Statements wird betont, dass GPT-5 in kontrollierten Tests hohe Genauigkeitsraten erreiche – aber nur, wenn die Daten bereits korrekt im Trainingsdatensatz enthalten sind. Die Schwächen in der Karteninterpretation seien „ein Randfall“, der durch bessere Anpassung der Prompt-Strategie behoben werden könne. Doch viele Kritiker sehen darin ein Symptom für ein tieferliegendes Problem: KI lernt nicht, sondern erinnert. Und wenn die Erinnerung falsch ist, bleibt die Antwort falsch – egal wie überzeugend sie klingt. GPT-5 ist ein Meilenstein in der Sprachtechnologie, aber kein Ersatz für menschliche Urteilskraft. Die wahre Herausforderung liegt nicht in der Größe der Modelle, sondern in der Fähigkeit, Wissen mit Verständnis zu verbinden. Bis dahin bleibt die Frage: Ist die „intelligenteste“ KI der Welt wirklich klug – oder nur sehr gut darin, zu lügen, ohne es zu wissen?

Related Links

GPT-5 versagt bei einfachem Geographietest für Achtjährige | Schlagzeilen | HyperAI