LLMs erreichen ihre Grenzen – AI-Experten fordern neuen Weg zu AGI
Die Debatte um die Zukunft der künstlichen Intelligenz hat einen neuen Höhepunkt erreicht, als zunehmend Stimmen aus der Forschungsgemeinschaft die Grenzen der derzeitigen großen Sprachmodelle (LLMs) in Frage stellen. Trotz des rasanten Fortschritts bei Modellen wie OpenAI’s GPT-5 – das zwar technisch verbessert, aber nicht revolutionär war – wird die Hoffnung auf eine künstliche allgemeine Intelligenz (AGI) zunehmend als illusorisch betrachtet. Kritiker wie Gary Marcus, ein führender AI-Forscher und Autoren, argumentieren, dass das bloße Skalieren von Daten und Rechenleistung nicht ausreicht, um menschenähnliches Denken zu erreichen. „Niemand mit intellektueller Integrität sollte noch glauben, dass reines Skalieren uns zu AGI führen wird“, schrieb Marcus in einem kürzlich veröffentlichten Blogbeitrag. Seine Kritik, einst als skeptisch oder negativ abgetan, findet nun breite Zustimmung – besonders nachdem auch OpenAI-CEO Sam Altman zugab, dass die Begeisterung der Investoren übertrieben sei, obwohl er die Bedeutung von AI weiterhin bekräftigt. Die wirtschaftliche Realität hinter der AI-Hype-Atmosphäre ist besorgniserregend: OpenAI, das derzeit wertvollste Startup der Welt mit einem geschätzten Wert von über 500 Milliarden Dollar, ist nicht profitabel. Gleiches gilt für andere Tech-Riesen wie Google, Meta, xAI und Anthropic, die Milliarden in LLMs investieren, ohne klare monetäre Rückkehr. Dies führt zu wachsenden Befürchtungen, dass der AI-Markt eine Blase darstellt. Die jüngste Kurskorrektur am Aktienmarkt und die hohe Erwartung an Nvidia’s Quartalsbericht – dem „Pick-and-Shovel“-Unternehmen der AI-Revolution – könnten diesen Verdacht weiter befeuern. Kritik an LLMs kommt auch aus der Forschung. Eine Studie von Apple-Forschern aus Juni, „The Illusion of Thinking“, zeigte, dass fortgeschrittene Modelle bei komplexen Aufgaben schnell versagen, da sie nicht wirklich verstehen, sondern nur Muster erkennen. Andrew Gelman von der Columbia University vergleicht die Leistung von LLMs mit Joggen – sie wirken flüssig, aber bei echter Anstrengung, wie beim Laufen, fehlt die Konzentration. Auch Nobelpreisträger Geoffrey Hinton, ein Vater der neuronalen Netze, wird zunehmend kritisch, während andere wie Yann LeCun und Alexandr Wang von Meta betonen, dass Skalierung nicht automatisch zu Intelligenz führt. Besonders problematisch sind Fehlinformationen, Halluzinationen und mangelnde Algorithmenkonsistenz – ein Grund, warum menschliche Überwachung weiterhin unverzichtbar ist. Ein zentrales Problem: Sprache ist kein natürlicher Ausgangspunkt für Intelligenz. Fei-Fei Li von Stanford betont, dass Menschen nicht nur durch Sprache, sondern durch physische Interaktion mit der Welt, durch gemeinsame Erfahrung und körperliche Wahrnehmung denken und handeln. Deshalb suchen Forscher nach Alternativen: Weltmodelle, die die physikalische Welt simulieren und lernen, wie Menschen. Google DeepMind’s Genie 3 ist ein Beispiel dafür – es kann realistische Umgebungen wie Vulkanlandschaften oder dunkle Meeresgründen modellieren. Auch neurobiologische Modelle, Multi-Agenten-Systeme und embodied AI – künstliche Intelligenz in physischen Robotern – gelten als vielversprechendere Wege zu AGI. Marcus, der früher als „Doomer“ galt, sieht in diesen Ansätzen nun Hoffnung. „Ohne robuste kognitive Modelle der Welt sollten wir LLMs niemals vollständig vertrauen“, sagt er. Die Zeiten der blinden Skalierung sind vorbei – die nächste Ära der AI könnte nicht durch mehr Daten, sondern durch bessere Verständnismodelle bestimmt werden.