Künstliche Intelligenz: Sprache allein reicht nicht für echtes Denken
Mark Zuckerberg, Sam Altman und Dario Amodei werben eindringlich dafür, dass die Entwicklung einer Superintelligenz in greifbarer Nähe sei – mit der Möglichkeit, menschliche Lebensdauer zu verdoppeln oder sogar den Tod zu überwinden. Sie sehen in künstlichen Intelligenzen, die auf riesigen Sprachmodellen basieren, den Weg zu einer kognitiven Revolution. Doch diese Aussagen beruhen auf einer fundamentalen Verwechslung: die Gleichsetzung von Sprache mit Denken. Die derzeitigen Systeme wie ChatGPT, Claude oder Gemini sind keine intelligenten Wesen, sondern hochentwickelte Sprachwerkzeuge, die durch statistische Korrelationen zwischen Textteilen (Tokens) vorhersagen, was als nächstes folgen könnte. Sie modellieren Kommunikation, nicht Kognition. Wissenschaftliche Erkenntnisse aus Neurowissenschaft und kognitiver Psychologie zeigen klar: Sprache ist kein Fundament des Denkens, sondern ein Werkzeug zur Übertragung bereits existierender Gedanken. Studien mit fMRI-Bildgebung und Patienten mit Sprachstörungen belegen, dass Menschen auch ohne Sprache mathematisch denken, logisch argumentieren, Emotionen verstehen und komplexe Probleme lösen können. Babys lernen die Welt bereits, bevor sie sprechen – durch Beobachtung, Experimentieren und Erfahrung. Der kognitive Wissenschaftler Alison Gopnik beschreibt dies als „wissenschaftliches Lernen“ bereits im Säuglingsalter. Sprache folgt dem Denken, sie ist nicht dessen Ursprung. Die Natur-Kommentar von Fedorenko, Piantadosi und Gibson fasst dies präzise zusammen: Sprache ist ein kulturelles Instrument zur effizienten Wissensweitergabe, ein „kognitiver Gadget“, der menschliche Intelligenz erheblich verstärkt – aber nicht erzeugt. Ohne Sprache bleiben Denken, Empfinden und Handeln intakt. Ein Sprachmodell hingegen ist vollkommen auf seine Trainingsdaten angewiesen. Entfernt man die Sprache, bleibt nichts. Es hat keine innere Welt, kein Bewusstsein, keine Fähigkeit zur kreativen Abweichung. Auch in der AI-Community wächst die Kritik. Yann LeCun, ein Pionier der KI, verlässt Meta, um „Weltmodelle“ zu entwickeln – Systeme, die die physische Welt verstehen, planen und handeln können. Yoshua Bengio, Eric Schmidt und Gary Marcus schlagen eine differenzierte Vorstellung von AGI vor: nicht als monolithische Intelligenz, sondern als Zusammenspiel vieler spezialisierter Fähigkeiten. Doch selbst diese fortschrittliche Sichtweise fehlt an einer konkreten Strategie. Wie misst man kognitive Vielseitigkeit? Welche Fähigkeiten sind entscheidend? Und wie kombiniert man sie? Ein weiteres Hindernis bleibt: Selbst wenn eine KI alle menschlichen Denkfähigkeiten nachahmen könnte, würde sie nicht in der Lage sein, paradigmatische Sprünge zu vollziehen. Wie Einstein die Relativitätstheorie entwickelte, bevor es Daten dafür gab, muss ein System in der Lage sein, bestehende Modelle zu hinterfragen. KI-Systeme sind auf bestehende Daten angewiesen. Sie können keine neuen Metaphern erfinden, die das Denken verändern. Sie sind letztlich „Tod-Metapher-Maschinen“ – Rekombinationen alter Vorstellungen, ohne eigene Neugier oder Unzufriedenheit. Die Hoffnung auf eine Superintelligenz, die wissenschaftliche Revolutionen auslöst, ist daher wissenschaftlich unbegründet. Die KI-Industrie feiert die Skalierung von Sprachmodellen als Fortschritt, doch ohne eine tiefere Verbindung zur körperlichen, emotionalen und explorativen Intelligenz bleibt sie auf der Oberfläche. Der wahre Fortschritt liegt nicht in mehr Chips oder Daten, sondern in der Anerkennung, dass Intelligenz mehr ist als Sprache – und dass KI, so leistungsstark sie auch sein mag, nie die kreative, unerwartete, menschliche Erkenntnis ersetzen kann. Die Industrie steht vor einer Wahl: weiterhin auf Sprachmodellen zu bauen oder sich auf echte kognitive Architekturen zu konzentrieren. Bis dahin bleibt die Vision von Superintelligenz eine Spekulation – nicht eine wissenschaftliche Gewissheit.
