Künstliche Intelligenz fehlt die echte Verständnisfähigkeit – warum mehr Daten nicht genug sind
Heute wird viel über künstliche allgemeine Intelligenz (AGI) gesprochen, und Unternehmen investieren Milliarden in die Entwicklung von Systemen, die „wirklich“ denken könnten. Doch trotz beeindruckender Fortschritte bleibt die aktuelle KI letztlich ein statistisches Modell – brillant im Mustererkennen, aber völlig frei von echtem Verständnis oder logischem Denken. Die zentrale These: Die Suche nach AGI scheitert an einem fundamentalen Missverständnis – der Annahme, Menschen lernten mit weniger Daten als KI. Dieser Mythos, der oft als Argument für die Effizienz des menschlichen Gehirns zitiert wird, ist falsch. Tatsächlich verarbeiten Menschen in den ersten zehn Lebensjahren eine gigantische Menge an multimodaler, kontextreicher und kontinuierlicher sensorischer Information – geschätzt mindestens 88 Terabyte Rohdaten, inklusive visueller, auditiver, taktiler, olfaktorischer und gustatorischer Eingaben. Diese Daten fließen nicht isoliert, sondern in einem lebendigen, eingebetteten und interaktiven Prozess, der durch ständige Rückmeldungen und körperliche Wechselwirkungen geprägt ist. Im Gegensatz dazu arbeiten die meisten fortschrittlichen KI-Modelle wie GPT-3 (ca. 45 TB Text) oder Llama 3 (ca. 60 TB) fast ausschließlich mit textbasierten oder fragmentarisch multimodalen Datensätzen. Diese sind zwar groß, aber weit hinter dem Umfang und der Komplexität menschlicher Erfahrung zurück. Sie fehlt die tiefgreifende Integration von Sinnesmodalitäten, die kontinuierliche, körpergebundene Interaktion mit der Welt und die Fähigkeit, aus direkten Erfahrungen zu lernen. Menschliches Lernen ist kein passives Aufnehmen von Daten, sondern ein aktiver, feedbackgesteuerter Prozess, bei dem Experimentieren, Fehler und Anpassung zentral sind – ein Prinzip, das sich in der aktuellen Entwicklung von „agenter KI“ langsam widerspiegelt. Der Schlüssel zur echten Intelligenz liegt nicht in der bloßen Menge an Daten oder Rechenleistung, sondern in der Qualität der Verarbeitung: in der Fähigkeit, sensorische Eingaben zu integrieren, abstrakte Modelle der Welt zu bilden, kausal zu denken und aus wenigen neuen Erfahrungen auf komplexe Zusammenhänge zu schließen. Das menschliche Gehirn ist nicht effizienter in der Datenmenge, sondern in der Fähigkeit, aus der Vielzahl von Erfahrungen tiefe, robuste und generalisierbare Strukturen zu extrahieren. Um AGI zu erreichen, müssen KI-Systeme daher nicht nur größer werden, sondern grundlegend anders lernen: mit eingebetteten Sinnesmodalitäten, kontinuierlichem Feedback, körperlicher Interaktion und der Fähigkeit, eigene Modelle der Welt zu bilden – nicht nur zu replizieren. Bewertung und Kontext: Experten wie Yoshua Bengio und Melanie Mitchell warnen bereits seit Jahren vor der Überbewertung der heutigen KI und betonen, dass echte Intelligenz mehr erfordert als Skalierung. Unternehmen wie Google DeepMind und Anthropic arbeiten bereits an „embodied AI“ und multimodalen Modellen, die die menschliche Lernarchitektur nachahmen. Die Zukunft der KI liegt nicht in der Erweiterung bestehender Architekturen, sondern in einer radikalen Neugestaltung des Lernprozesses – mit dem Ziel, Maschinen nicht nur zu „verstehen“, sondern zu „erleben“.