Harvard- und MIT-Studie: KI fehlt echtes Verständnis für Wissenschaft.
Harvard- und MIT-Studie: KI-Modelle sind noch nicht bereit für wissenschaftliche Entdeckungen KI kann vorhersagen, dass die Sonne morgen wieder aufgehen wird, aber sie kann nicht erklären, warum. Eine Studie von Forschern der Harvard University und des Massachusetts Institute of Technology (MIT) beleuchtet eine der zentralen Fragen zu großen Sprachmodellen (LLMs) und ihrem Potenzial als Weg zur künstlichen allgemeinen Intelligenz (AGI): Können grundlegende KI-Modelle Weltmodelle kodieren, oder sind sie lediglich gut darin, das nächste Token in einer Sequenz vorherzusagen? Diese Unterscheidung zwischen Erklärung und Vorhersage ist ein fundamentales wissenschaftliches Dilemma, das über KI hinausgeht. Die Autoren trainierten ein transformerbasiertes KI-Modell, um Vorhersagen zur Bahndynamik (ähnlich den Entdeckungen Keplers über die Bewegung der Planeten um die Sonne) zu treffen. Anschließend wollten sie testen, ob das Modell die zugrunde liegenden newtonschen Mechanik (die Gravitationsgesetze) erlernt hatte. Sie vermuteten, dass wenn das KI-Modell korrekte Vorhersagen trifft, aber die Gesetze von Newton nicht kodiert, es kein umfassendes Weltmodell besitzt. Dies wäre ein starker Beweis dafür, dass KI-Modelle (wie sie heute existieren) die Welt nicht verstehen, was einen Rückschlag für die Träume von AGI darstellen würde. Sie wählten die Bahndynamik, weil sie historisch präzise ist: Newton baute auf Keplers Entdeckungen auf, um seine Gesetze der Bewegung und Gravitation abzuleiten. Die Forscher gingen also davon aus, dass, wenn das KI-Modell die neuen Gesetze nicht erkennt, es keinen tieferen Verständnisprozess durchläuft. Das Modell wurde mit einer Vielzahl von Daten über planetarische Bewegungen trainiert und dann getestet, ob es die Bewegungen auf der Grundlage der newtonschen Mechanik erklären konnte. Die Ergebnisse der Studie zeigten, dass das KI-Modell zwar in der Lage war, genaue Vorhersagen über die Bahnen der Planeten zu treffen, aber es konnte die zugrunde liegenden physikalischen Gesetze nicht reproduzieren. Es schien einfach Muster in den Daten zu erkennen und diese zu extrapolieren, ohne ein tieferes Verständnis der Mechanismen zu haben. Dies deutet darauf hin, dass KI-Modelle derzeit eher als statistische Werkzeuge dienen, die hochpräzise Vorhersagen treffen können, aber keine wissenschaftlichen Erklärungen liefern. Die Autoren der Studie betonen, dass dies kein endgültiges Urteil über die Fähigkeiten von KI-Modellen ist. Vielmehr zeigt es, dass die Entwicklung von AGI noch viele Herausforderungen birgt. Ein tieferes Verständnis der Welt durch KI-Modelle könnte durch andere Ansätze erreicht werden, wie z.B. durch die Integration von kausalen Inferenzmethoden oder durch die Verwendung von hybriden Modellen, die sowohl Mustererkennung als auch explizites Wissen kombinieren. Die Studie hebt auch die Bedeutung der Interpretierbarkeit von KI-Modellen hervor. Ohne die Möglichkeit, die inneren Abläufe eines Modells zu verstehen, ist es schwierig, seine Fähigkeiten und Einschränkungen genau zu bewerten. Dies ist besonders wichtig in wissenschaftlichen Kontexten, wo Transparenz und Nachvollziehbarkeit von entscheidender Bedeutung sind. Industrieinsider und Experte im Bereich maschinelle Lernen, Dr. Jan Peters, von der Technischen Universität Darmstadt, kommentiert die Studie: „Die Ergebnisse bestätigen unsere langjährige Annahme, dass aktuelle KI-Modelle in der Lage sind, komplexe Muster zu erkennen, aber sie fehlen an einem tieferen Verständnis der zugrunde liegenden Prinzipien. Dies ist ein wichtiger Schritt in Richtung einer realistischeren Einschätzung der Fähigkeiten und Grenzen von KI, insbesondere im wissenschaftlichen Bereich.“ Die Harvard- und MIT-Forscher unterstreichen, dass ihre Arbeit nicht das Ende der Reise bedeutet, sondern vielmehr ein Anfangspunkt für weitere Untersuchungen. Sie rufen die wissenschaftliche Gemeinschaft dazu auf, sich intensiver mit der Frage zu befassen, wie KI-Modelle ein tieferes Verständnis der Welt erlangen können. Die Entwicklung von AGI bleibt ein ambitioniertes Ziel, aber die Studie zeigt, dass es noch viele offene Fragen und Herausforderungen gibt, die bewältigt werden müssen. Die Harvard-Universität und das MIT sind führende Institutionen in den Bereichen Wissenschaft und Technologie. Ihre Forschungen tragen maßgeblich zur Weiterentwicklung von KI-Technologien bei. Die Studie, die in einem renommierten wissenschaftlichen Journal veröffentlicht wurde, wirft wichtigeLights auf die Fähigkeiten und Einschränkungen der heutigen KI-Modelle und richtet den Blick auf zukünftige Forschungsansätze.