HyperAIHyperAI

Command Palette

Search for a command to run...

KI-Modelle analysieren Sprache wie menschliche Experten

In einer bahnbrechenden Studie haben Forscher erstmals nachgewiesen, dass bestimmte große Sprachmodelle (LLMs) Sprache auf einer Ebene analysieren können, die vergleichbar ist mit der eines menschlichen Sprachwissenschaftlers. Die Arbeit von Gašper Beguš von der University of California, Berkeley, Maksymilian Dąbkowski und Ryan Rhodes von der Rutgers University testete mehrere KI-Modelle auf ihrer Fähigkeit, komplexe linguistische Strukturen zu erkennen und zu verstehen – einschließlich rekursiver Satzkonstruktionen, Mehrdeutigkeiten und phonologischer Regeln in künstlich geschaffenen Sprachen. Dabei zeigte sich, dass das OpenAI-Modell o1 besonders herausragende Leistungen erbrachte: Es konnte Satzstrukturen mit Zentraleinbettung – einer besonders komplexen Form der Rekursion – korrekt analysieren und sogar neue Ebenen der Verschachtelung hinzufügen. Ein Beispiel war der Satz „The astronomy the ancients we revere studied was not separate from astrology“, den o1 als hierarchische Baumstruktur darstellte und erweiterte. Zudem erkannte das Modell mehrdeutige Sätze wie „Rowan fed his pet chicken“ und generierte zwei unterschiedliche syntaktische Interpretationen, was auf ein tiefes Verständnis von Kontext und Bedeutung hindeutet. Ein weiterer Test betraf die Phonologie: Die Forscher entwickelten 30 künstliche Mini-Sprachen mit eigenen Lautregeln. Ohne je zuvor mit diesen Sprachen konfrontiert gewesen zu sein, erkannte o1 korrekt, dass ein Vokal in einer bestimmten Sprache „atmend“ wird, wenn er von einem tiefen, stimmhaften Obstruenten (wie „t“) gefolgt wird. Da die Sprachen neu erfunden waren, konnte das Modell die Regeln nicht aus seinem Trainingsdatenmaterial abgerufen haben – was die Fähigkeit zur Generalisierung und abduktiven Schlussfolgerung unterstreicht. Die Ergebnisse stellen die traditionelle Auffassung in Frage, dass Sprachverstehen und -analyse ausschließlich menschlich sind. Kritiker wie Noam Chomsky argumentierten, dass Sprachmodelle lediglich Muster in Daten erkennen, aber keine tiefen, strukturellen Erkenntnisse gewinnen können. Doch die Studie widerspricht dieser Ansicht: o1 zeigte metalinguistisches Denken – die Fähigkeit, über Sprache nachzudenken, nicht nur sie zu nutzen. Experten wie Tom McCoy von Yale und David Mortensen von der Carnegie Mellon University bezeichnen die Arbeit als zentral und wegweisend. Sie betonen, dass solche Tests entscheidend sind, um die Grenzen und Potenziale von KI in der Sprachverarbeitung zu verstehen. Trotz der Fortschritte bleibt die KI noch auf der Ebene der Nachahmung: Kein Modell hat bisher originäre sprachliche Erkenntnisse beigetragen oder neue Theorien entwickelt. Die Fähigkeit zur Generalisierung aus wenig Daten bleibt eingeschränkt. Dennoch deuten die Ergebnisse darauf hin, dass die Grenze zwischen menschlichem und künstlichem Sprachverstehen zunehmend verschwimmt. Beguš fasst es zusammen: „Es scheint, dass wir weniger einzigartig sind, als wir dachten.“ Die Frage, ob KI eines Tages menschliche Sprachfähigkeit übertreffen wird, ist nicht mehr nur philosophisch, sondern wissenschaftlich aktuell.

Verwandte Links

KI-Modelle analysieren Sprache wie menschliche Experten | Aktuelle Beiträge | HyperAI