KI-Experten streben nach Weltmodellen für robustere KI – doch der Weg dorthin bleibt unklar.
Künstliche Intelligenz-Forscher kehren mit neuem Interesse zu einem alten Konzept zurück: dem sogenannten „Weltmodell“. Diese Vorstellung, dass ein AI-System eine vereinfachte, interne Repräsentation seiner Umgebung erzeugt – ähnlich einem computergenerierten Schneegloben –, soll es ermöglichen, Entscheidungen und Vorhersagen im Simulationssystem zu testen, bevor sie in der realen Welt angewendet werden. Prominente Forscher wie Yann LeCun (Meta), Demis Hassabis (Google DeepMind) und Yoshua Bengio (Mila) sehen Weltmodelle als entscheidenden Baustein für künftige künstliche Allgemeine Intelligenz (AGI), da sie für robustes, sicheres und wissenschaftlich fundiertes Verhalten sorgen könnten. Der Begriff geht auf den schottischen Psychologen Kenneth Craik aus dem Jahr 1943 zurück, der bereits damals vermutete, dass das Gehirn mentale Modelle der Außenwelt erzeugt, um Alternativen zu testen, ohne sie physisch ausprobieren zu müssen. Diese Idee prägte später die kognitive Wissenschaft und legte den Grundstein für die Verbindung von Kognition und Berechnung. In den 1960er Jahren versuchte man, Weltmodelle in der KI konkret umzusetzen – etwa mit dem System SHRDLU, das einfache Fragen über eine virtuelle „Blockwelt“ beantworten konnte. Doch diese handkodierten Modelle ließen sich nicht skalieren. In den 1980er Jahren verwarf der Roboterforscher Rodney Brooks die Idee vollständig und argumentierte, dass die Welt selbst das beste Modell sei – explizite Repräsentationen seien hinderlich. Erst mit dem Aufkommen von Deep Learning und künstlichen neuronalen Netzen kehrte das Interesse an Weltmodellen zurück. Moderne große Sprachmodelle wie ChatGPT zeigen emergente Fähigkeiten – wie das Raten von Film-Titeln aus Emojis –, die viele Forscher als Hinweis auf verborgene Weltmodelle deuten. Doch der Realität steht das Gegenteil gegenüber: Stattdessen scheinen diese Modelle nicht ein kohärentes Bild der Welt zu speichern, sondern eine Ansammlung von heuristischen Regeln, die oft widersprüchlich und unzusammenhängend sind. Sie erinnern an die Parabel der Blinden und dem Elefanten: Jeder erfasst nur einen Teil, aber kein Gesamtbild. Ein Beispiel: Forscher von Harvard und MIT zeigten, dass ein LLM Manhattan-Routenplanung meistert – ohne jemals eine konsistente Straßenkarte im Kopf zu haben. Stattdessen nutzt es eine Vielzahl von isolierten, spezifischen „Best-Practices“. Doch diese Methode bricht bei kleinen Änderungen zusammen: Blockiert man nur 1 % der Straßen, sinkt die Leistung drastisch. Ein echtes Weltmodell hingegen könnte flexibel umleiten, weil es die Struktur der Stadt versteht. Daher ist die Entwicklung robuster, konsistenter Weltmodelle für viele Labore ein zentrales Ziel. Google DeepMind und OpenAI setzen auf multimodale Daten – Videos, 3D-Simulationen –, um solche Modelle aus der Statistik eines Netzwerks entstehen zu lassen. LeCun hingegen glaubt, dass neue, nicht-generativ arbeitende Architekturen nötig sind, um die notwendige Struktur zu schaffen. Obwohl die genaue Methode unklar ist, ist die Zielrichtung klar: Weltmodelle könnten die Grundlage für verlässlichere, interpretierbare und fehlerfreiere KI sein. Sie könnten AI-Halluzinationen reduzieren, logisches Schließen ermöglichen und die Sicherheit von Systemen erhöhen. Obwohl der Weg noch ungewiss ist, ist das Potenzial groß – und die Hoffnung, dass die KI endlich „versteht“, was sie tut, ist wieder wach. In der Branche wird die Diskussion als zentral für den Fortschritt hin zu AGI angesehen. Experten betonen, dass die Fähigkeit, eine konsistente Weltrepräsentation zu bilden, weit mehr als nur eine technische Verbesserung wäre – sie könnte den Sprung von reaktiver zu proaktiver Intelligenz bedeuten.