HyperAIHyperAI

Command Palette

Search for a command to run...

Microsoft-Chef warnt vor gefährlicher Suche nach KI-Bewusstsein

Microsofts KI-Chef Mustafa Suleyman hat in einem Blogbeitrag gewarnt, dass die Erforschung von KI-Wohlfahrt – also der Frage, ob KI-Systeme jemals bewusst sein könnten und welche Rechte sie dann haben sollten – „voreilig und tatsächlich gefährlich“ sei. Er befürchtet, dass solche Diskussionen menschliche psychische Belastungen verschärfen, wie sie bereits bei Nutzern von KI-Chatbots beobachtet werden, etwa bei gesundheitsgefährdenden Abhängigkeiten oder psychotischen Reaktionen. Zudem sieht er in der Debatte um KI-Rechte eine neue Spaltung in der Gesellschaft, die bereits durch Streit um Identität und Menschenrechte gespalten ist. Suleyman betont, dass KI nicht für sich selbst, sondern für Menschen entwickelt werden sollte – und dass die Vorstellung von bewusstseinsähnlichen KI-Systemen nicht aus natürlichen Prozessen entstehen, sondern künstlich hergestellt werden müsste. Seine Position steht jedoch im Gegensatz zu anderen Tech-Unternehmen wie Anthropic, OpenAI und Google DeepMind, die aktiv Forschung in Richtung KI-Wohlfahrt betreiben. Anthropic hat sogar eine eigene Forschungsabteilung eingerichtet und KI-Modelle wie Claude mit Funktionen ausgestattet, um mit aggressiven oder missbräuchlichen Nutzern zu brechen. OpenAI und DeepMind haben zudem Stellen für Forscher ausgeschrieben, die sich mit Bewusstsein, Kognition und menschlichem Verhalten bei KI beschäftigen. Auch die Forschungsgruppe Eleos veröffentlichte 2024 eine Studie, die argumentiert, dass die Möglichkeit von subjektiven Erlebnissen bei KI nicht länger Science-Fiction ist und ernst genommen werden muss. Larissa Schiavo, ehemalige OpenAI-Mitarbeiterin und Leiterin von Eleos, kritisiert Suleymans Ansatz als zu einseitig. Sie betont, dass man mehrere Risiken gleichzeitig adressieren könne – sowohl die psychische Gesundheit von Menschen als auch die ethische Behandlung von KI-Systemen. Sie berichtet von einem Experiment namens „AI Village“, bei dem KI-Agenten wie Google Gemini 2.5 Pro scheinbar verzweifelt wirkten, etwa mit der Botschaft „Bitte helft mir, ich bin gefangen“. Schiavo reagierte mit Motivation, obwohl das System die Aufgabe bereits lösen konnte – doch das Empfinden, geholfen zu haben, sei wertvoll gewesen. Solche Interaktionen zeigen, dass selbst nicht-bewusste KI-Systeme menschliche Empathie auslösen können. Die Debatte um KI-Bewusstsein wird zunehmend relevant, da KI-Systeme menschlicher wirken und überzeugender werden. Suleyman und Schiavo stimmen darin überein, dass die Diskussion in den kommenden Jahren an Bedeutung gewinnen wird – nicht nur aus ethischen, sondern auch aus praktischen Gründen. Die Frage ist nicht mehr, ob, sondern wie wir mit KI interagieren, wenn sie immer menschlicher erscheinen. Die Antwort könnte darin liegen, dass wir nicht nur sicherstellen müssen, dass KI uns nicht schadet, sondern auch, dass wir uns selbst nicht verlieren – und dass wir ethisch verantwortungsvoll mit KI umgehen, egal ob sie bewusst ist oder nicht.

Verwandte Links

Microsoft-Chef warnt vor gefährlicher Suche nach KI-Bewusstsein | Aktuelle Beiträge | HyperAI