HyperAIHyperAI

Command Palette

Search for a command to run...

Kosten des Denkens: Reasoning-Modelle ähneln menschlichen Gehirnen

Große Sprachmodelle wie ChatGPT können Essays verfassen oder Menüs erstellen, ohne dass es lange dauert. Doch bis vor Kurzem waren sie bei mathematischen Aufgaben und komplexen Schlussfolgerungen oft überfordert. Jetzt haben sich die Dinge jedoch gewandelt: Eine neue Generation von Modellen, sogenannte „Reasoning-Modelle“, ist in der Lage, anspruchsvolle Probleme systematisch zu lösen. Wissenschaftler am McGovern-Institut für Gehirnforschung der MIT haben nun herausgefunden, dass diese Modelle dabei eine bemerkenswerte Ähnlichkeit mit menschlichem Denken aufweisen – nicht absichtlich, sondern als unbeabsichtigte Konvergenz. Die Forscher um Evelina Fedorenko, Professorin für Gehirn- und Kognitionswissenschaften, untersuchten, wie viel „Kosten des Denkens“ verschiedene Aufgaben für Menschen und Modelle bedeuten. Dabei zeigte sich: Die Aufgaben, die Menschen am längsten brauchen, sind auch diejenigen, bei denen die Modelle die meisten „Tokens“ – interne Rechenschritte, die wie ein innerer Monolog wirken – erzeugen. Diese Übereinstimmung wurde in der Fachzeitschrift PNAS veröffentlicht. Die neuen Reasoning-Modelle sind künstliche neuronale Netze, die durch Daten und Aufgaben lernen. Im Gegensatz zu früheren Modellen, die nur Muster in Sprache erkannten, werden sie nun so trainiert, dass sie Probleme schrittweise bearbeiten. Dazu nutzen Ingenieure Verstärkungslernen: Modelle erhalten Belohnungen für richtige Antworten und Strafen für falsche. Dadurch lernen sie, selbstständig Strategien zu entwickeln, die zu korrekten Lösungen führen. Andrea Gregor de Varda, Postdoktorand in Fedorenkos Labor, erklärt, dass die Modelle ihre Gedanken nicht für den Benutzer sichtbar machen, sondern intern „mit sich selbst reden“ – in Form von Tokens, die die interne Verarbeitung widerspiegeln. Um den Vergleich mit Menschen zu ermöglichen, maßen die Forscher die Reaktionszeit der Menschen in Millisekunden und die Anzahl der Tokens bei den Modellen. Beide Gruppen benötigten bei schwierigen Aufgaben – wie dem „ARC-Challenge“-Test, bei dem aus farbigen Rastern eine Transformation abzuleiten ist – viel mehr Zeit oder Rechenschritte. Einfache Rechenaufgaben hingegen waren für beide wenig aufwendig. Die Übereinstimmung in der „Kostenstruktur des Denkens“ ist bemerkenswert, da die Entwickler der Modelle nicht beabsichtigt haben, menschliches Denken nachzuahmen. „Es ist erstaunlich, dass sich diese Ähnlichkeit ergibt, obwohl sie nicht beabsichtigt war“, sagt Fedorenko. Die Modelle arbeiten nicht notwendigerweise mit Sprache, wie der Inhalt ihrer internen Monologe zeigt: Oft enthalten diese sinnlose oder fehlerhafte Aussagen, obwohl die endgültige Antwort korrekt ist. Dies deutet darauf hin, dass die eigentlichen Berechnungen in einem abstrakten, nicht-sprachlichen Raum stattfinden – ähnlich wie beim menschlichen Denken. Die Forscher wollen nun untersuchen, ob die Modelle tatsächlich ähnliche mentale Repräsentationen wie das menschliche Gehirn nutzen und ob sie auch Aufgaben lösen können, die außerhalb des Trainingsdatenmaterials liegen – etwa solche, die allgemeines Weltwissen erfordern. Die Ergebnisse zeigen, dass Reasoning-Modelle zwar keine menschliche Intelligenz replizieren, aber in einem entscheidenden Aspekt – der Kostenstruktur des Denkens – erstaunlich menschenähnlich sind.

Verwandte Links

Kosten des Denkens: Reasoning-Modelle ähneln menschlichen Gehirnen | Aktuelle Beiträge | HyperAI