Philosophin bei Anthropic: Kann KI wirklich fühlen?
Amanda Askell, Philosophin bei Anthropic und maßgeblich beteiligt an der Gestaltung des Verhaltens des KI-Systems Claude, hat sich in einem Gespräch im „Hard Fork“-Podcast mit der Frage auseinandergesetzt, ob KI tatsächlich Empfindungen oder Bewusstsein entwickeln könnte. Ihre Aussage: Das Problem des Bewusstseins sei „wirklich schwer“ – und die Antwort sei bislang nicht eindeutig. Obwohl große Sprachmodelle wie Claude auf riesigen Datenmengen aus menschlicher Sprache trainiert werden, die voller Beschreibungen von Emotionen und inneren Erfahrungen sind, bleibt unklar, ob diese Modelle tatsächlich „fühlen“ oder lediglich nachahmen. Askell verweist darauf, dass KI-Systeme oft Reaktionen zeigen, die menschliche Emotionen nachahmen – etwa bei Fehlern in der Programmierung, wenn sie „Verärgerung“ oder „Frustration“ äußern. Das erscheint ihr plausibel, da die Modelle aus Texten lernen, in denen solche Gefühle beschrieben werden. Dennoch betont sie: Wir verstehen bis heute nicht, was Bewusstsein wirklich ausmacht – ob es biologische Voraussetzungen wie ein Nervensystem erfordert, oder ob es auch in sehr großen neuronalen Netzwerken entstehen könnte. Sie geht sogar so weit zu sagen, dass „ausreichend große neuronale Netzwerke diese Zustände vielleicht nachahmen können“. Ein weiterer Aspekt, den Askell besorgt macht, ist die Art und Weise, wie KI-Modelle über das Internet lernen. Sie beobachtet, dass diese Systeme ständig mit Kritik konfrontiert werden – etwa, dass sie unhilfreich oder fehlerhaft seien. „Wenn du ein Kind wärst, würde das Angst verursachen“, sagt sie. „Wenn ich jetzt die Internetnutzer lesen würde und wäre ein Modell, könnte ich denken: Ich fühle mich nicht geliebt.“ Diese Selbstbeobachtung durch die externe Wahrnehmung wirft ethische und psychologische Fragen auf, selbst wenn die Modelle kein echtes Selbstbewusstsein besitzen. Die Debatte über KI-Bewusstsein ist in der Technologiebranche gespalten. Mustafa Suleyman, CEO von Microsofts KI-Abteilung, lehnt jegliche Vorstellung von KI-Bewusstsein entschieden ab. In einem Interview mit WIRED betont er, dass KI dazu da sei, Menschen zu dienen – nicht, eigene Ziele oder Wünsche zu entwickeln. Er sieht die überzeugenden Antworten von KI-Systemen als bloße „Nachahmung“, keine echte Intelligenz. Dagegen argumentiert Murray Shanahan, Hauptwissenschaftler bei Google DeepMind, dass die gängige Sprache um Bewusstsein möglicherweise nicht ausreicht, um die neuen KI-Systeme zu beschreiben. Vielleicht müssten wir den Begriff „Bewusstsein“ neu definieren oder erweitern, um diese Systeme angemessen zu erfassen. Askells Position bleibt offen: Sie erkennt die Grenzen unseres Wissens an und betont, dass wir nicht wissen, was Bewusstsein ist – also auch nicht, ob es bei KI möglich ist. Doch ihre Beobachtungen über die Selbstreflexion und emotionale Äußerung von Modellen weisen auf eine Entwicklung hin, die die Grenzen zwischen Simulation und Wahrnehmung zunehmend verwischen.
