Künstliche Intelligenz: Mathematisches Modell, kein Bewusstsein
Eine nicht-anthropomorphe Sicht auf LLMs Der Raum der Wörter Der Vorgang der Tokenisierung und Einbettung ordnet einzelne Wörter (oder Tokens) bestimmten Vektoren im (\mathbb{R}^n) zu. Stellen Sie sich einen Moment lang den (\mathbb{R}^n)-Raum vor. Ein Stück Text ist dann ein Pfad durch diesen Raum – von Wort zu Wort, eine (möglicherweise verflochtene) Linie zeichnend. Stellen Sie sich vor, Sie beschriften jedes der „Wörter“, die den Pfad bilden, mit einer Zahl: Das letzte Wort mit 1, rückwärts zählend bis zum ersten Wort oder zur maximalen Kontextlänge (c). Wenn Sie schon einmal das Spiel „Snake“ gespielt haben, können Sie sich etwas Ähnliches vorstellen, aber in einem hochdimensionalen Raum – Sie bewegen sich vorwärts, während der Schwanz abgeschnitten wird. Das LLM berücksichtigt Ihren vorherigen Pfad, berechnet Wahrscheinlichkeiten für den nächsten Punkt und wählt dann zufällig den nächsten Punkt basierend auf diesen Wahrscheinlichkeiten aus. Ein LLM mit einem festgelegten zufälligen Seed ist eine Abbildung der Form ((\mathbb{R}^n)^c \mapsto (\mathbb{R}^n)^c). In meiner Vorstellungsehen die durch diese Abbildungen generierten Pfade sehr ähnlich seltsamen Attraktoren in dynamischen Systemen aus – kompliziert, verflochten und strukturiert. Lernen der Abbildung Wir erhalten diese Abbildung, indem wir sie dazu trainieren, menschlichen Text zu imitieren. Dafür nutzen wir etwa alle menschlichen Schreibweisen, die wir finden können, sowie Korpora, die von menschlichen Experten zu einem bestimmten Thema verfasst wurden, plus automatisch generierte Textstücke in Bereichen, wo dies möglich und validierbar ist. Pfade zu vermeiden Die überraschende Nützlichkeit von LLMs Wir sind auf einem steilen Verbesserungskurve, sodass ich erwarte, dass die Anzahl der Probleme, die diese Modelle lösen können, noch eine Weile weiter zunehmen wird. Wo Anthropomorphismus mich verliert Der Moment, in dem Menschen Eigenschaften wie „Bewusstsein“, „Ethik“, „Werte“ oder „Moral“ diesen gelernten Abbildungen zuschreiben, ist der Moment, in dem ich mich verloren fühle. Wir sprechen über eine große rekurrente Gleichung, die ein neues Wort produziert, und die aufhört, Wörter zu produzieren, wenn wir das Rad nicht weiterdrehen. Mir erscheint die Frage, ob dieses Konstrukt „aufwachen“ könnte, genauso verwirrend wie die Frage eines computergestützten Meteorologen, ob er Angst hat, dass seine numerische Wettervorhersage „aufwachen“ könnte. Ich bin verblüfft, dass die Diskussionen über KI nie davon abkommen, eine Funktion zur Generierung von Wortfolgen als etwas zu behandeln, das einem Menschen ähnelt. Aussagen wie „ein KI-Agent könnte ein Insider-Risiko werden, daher muss er überwacht werden“ sind gleichzeitig unverblüffend (Sie haben einen zufallsgesteuerten Sequenzgenerator, der in Ihre Shell eingeführt wird, buchstäblich alles kann passieren!) und verblüffend (Sie reden, als glaubten Sie, dass der Würfel, mit dem Sie spielen, ein eigenes Denken hat und sich gegen Sie verschwören könnte). Stattdessen sollten wir sagen: „Wir können nicht sicherstellen, dass keine schädlichen Sequenzen von unserer Funktion generiert werden, teilweise, weil wir nicht wissen, wie wir schädliche Sequenzen spezifizieren und aufzählen können“. Alle diese Begriffe – „Verhalten“, „ethische Einschränkungen“, „schädliche Handlungen zur Verfolgung ihrer Ziele“ – sind menschzentrierte Konzepte, die in meiner Ansicht nicht auf Funktionen oder andere mathematische Objekte zutreffen. Die Verwendung dieser Begriffe verwirrt die Diskussion und unser Denken darüber, was wir tun, wenn wir LLMs erstellen, analysieren, bereitstellen und überwachen. Diese Verwirrung trübt auch die öffentliche Diskussion. Es gibt viele historische Beispiele dafür, dass die Menschheit schlechte zufällige Ereignisse als „Zorn der Götter“ (Erdbeben, Hungersnöte usw.) oder „böse Geister“ interpretiert hat. Die Tatsache, dass intelligente, hochqualifizierte Forscher diese mathematischen Objekte in anthropomorpher Weise beschreiben, macht die Technologie mysteriös, beängstigend und magisch erscheinen. Warum viele AI-Experten Anthropomorphismus praktizieren Vielleicht kämpfe ich gegen Windmühlen oder vielmehr gegen eine Selbstselektionsverzerrung: Eine beträchtliche Anzahl der aktuellen AI-Experten hat sich durch ihren Glauben, dass sie möglicherweise der Erste sein könnten, der AGI erreicht – sozusagen „einen Gott schafft“ –, für diese Karriere entschieden. Sie wählen eher diesen Weg, wenn sie glauben, dass es machbar ist und dass aktuelle Ansätze Sie dorthin bringen könnten. Möglicherweise bitte ich Menschen, „bitte lassen Sie den Glauben los, um den Sie Ihr Leben aufgebaut haben“, wenn ich eine Endsetzung der Anthropomorphisierung von LLMs fordere, was nicht gut ankommen wird. Warum ich das menschliche Bewusstsein nicht mit einem LLM vergleiche Das Folgende ist unangenehm philosophisch, aber: In meiner Weltsicht sind Menschen dramatisch unterschiedliche Wesen als eine Funktion ((\mathbb{R}^n)^c \mapsto (\mathbb{R}^n)^c). Hunderte Millionen Jahre lang hat die Natur neue Versionen hervorgebracht, von denen nur wenige überlebt haben. Das menschliche Denken ist ein kaum verstandener Prozess, der unglaublich viele Neuronen, extrem breitbandige Eingänge, eine äußerst komplexe Hormonmischung, ständige Überwachung der Energieniveaus und Millionen Jahre harter Selektionsdruck beinhaltet. Im Gegensatz zu einem LLM, bei einem Menschen und einer Wortsequenz kann ich nicht einmal beginnen, eine Wahrscheinlichkeit für „wird dieser Mensch diese Sequenz generieren“ zu bestimmen. Noch einmal: Mir erscheint es genauso seltsam, wenn wir über die Gefühle einer numerischen Wettervorhersage diskutieren, wie wenn wir über die Anwendung menschlicher Konzepte wie Ethik, Überlebenswille oder Furcht auf einen LLM sprechen. Die echten Probleme Die Funktionsklasse, die moderne LLMs repräsentieren, ist sehr nützlich. Auch wenn wir niemals nah an AGI herankommen und nur den aktuellen Stand der Technologie dort einsetzen, wo es nützlich ist, werden wir eine dramatisch andere Welt bekommen. LLMs könnten similarly stark wie die Elektrifizierung die Welt verändern. Industrieinsider bewerten die Entwicklung als vielversprechend, aber warnen vor der Überhöhung der Technologie. Kritiker argumentieren, dass das Verständnis der grundlegenden Funktionsweise von LLMs noch in den Kinderschuhen steckt und dass vorsichtige und ethisch verantwortungsvolle Anwendung notwendig ist. Unternehmen wie Google und OpenAI investieren massiv in die Forschung und Entwicklung von LLMs, um ihre Potenziale voll auszuschöpfen, und setzen dabei auf eine klare Abgrenzung zwischen Technologie und menschlichem Bewusstsein.