HyperAIHyperAI

Command Palette

Search for a command to run...

Harry und Bannon warn vor unkontrollierter KI-Entwicklung

Ein ungewöhnlicher Bündnis aus Prominenten aus Politik, Wissenschaft, Kultur und Technologie hat sich für eine dringende Pause im Fortschritt hin zu Superintelligenz (AGI) eingesetzt. Die „Erklärung zur Superintelligenz“ des Future of Life Institute, die mittlerweile über 1.300 Unterschriften umfasst, fordert eine weltweite Verzögerung der Entwicklung von künstlicher Intelligenz, die menschliche Intelligenz übertreffen würde, bis zwei Voraussetzungen erfüllt sind: ein breiter wissenschaftlicher Konsens über deren Sicherheit und Kontrollierbarkeit sowie eine starke öffentliche Zustimmung. Bislang fehlen beide. Unter den Unterzeichnern sind wegweisende Persönlichkeiten wie Steve Wozniak, die „Väter der KI“ Geoffrey Hinton und Yoshua Bengio sowie der renommierte UC-Berkeley-Professor Stuart Russell, der betont, dass die Forderung nach Sicherheitsmaßnahmen keine Überreaktion sei, sondern eine vernünftige Reaktion auf ein Risiko, das menschliche Existenz bedrohen könnte. Besonders auffällig ist die politische Vielfalt der Unterstützer: Rechtspolitiker wie Steve Bannon und Glenn Beck, ehemalige US-Beamte wie Susan Rice und ehemalige Kongressabgeordnete aus beiden Lagern, die ehemalige UN-Menschenrechtskommissarin Mary Robinson, der katholische AI-Berater des Papstes, Friar Paolo Benanti, sowie der Duke und die Duchess of Sussex, Prince Harry und Meghan. Auch Künstler wie Joseph Gordon-Levitt, Will.I.am, Grimes und der Historiker Yuval Noah Harari unterstützen die Erklärung. Harari warnt, Superintelligenz würde das Fundament der menschlichen Zivilisation sprengen und sei völlig unnötig – stattdessen sollten wir auf kontrollierbare, nützliche KI-Tools setzen, die heute schon Menschen helfen können. Die Erklärung ist kein generelles Verbot, sondern eine dringende Aufforderung zu verantwortungsvollem Handeln. Sie folgt auf frühere Warnungen, darunter eine 2023 von OpenAI-Chef Sam Altman und Anthropic-Chef Dario Amodei unterzeichnete Erklärung, die die Risiken von KI-Existenzbedrohungen mit Pandemien und Atomkrieg verglich. Eine weitere, ebenfalls vom Future of Life Institute initiierte Erklärung mit über 33.000 Unterschriften forderte 2023 eine sechsmonatige Pause bei der Entwicklung von KI-Modellen stärker als GPT-4 – ein Aufruf, der ignoriert wurde. OpenAI veröffentlichte GPT-4o und später GPT-5, was bei Nutzern zu emotionalen Reaktionen führte, insbesondere als GPT-5 den vorherigen, als emotional vertraut empfundenen GPT-4o ersetzte. Auffällig ist, dass mehrere führende KI-Entwickler, darunter Altman, Amodei, Mustafa Suleyman, David Sacks und Elon Musk, die Erklärung nicht unterzeichnet haben – obwohl auch sie die Risiken eingeräumt haben. So warnte Altman 2015, die Entwicklung von supermenschlicher Intelligenz sei „wahrscheinlich die größte Bedrohung für die fortbestehende Existenz der Menschheit“. Die Kritik richtet sich nicht gegen KI insgesamt, sondern gegen die rasanten, unregulierten Fortschritte, die ohne ausreichende Sicherheits- und ethische Rahmenbedingungen voranschreiten. Die Debatte spiegelt ein tiefes Dilemma wider: die technologische Euphorie der Branche steht im Konflikt mit wachsenden ethischen, sozialen und existenziellen Bedenken. Industrieexperten sehen die Erklärung als wichtigen Impuls für eine globale Diskussion über die Zukunft der KI. „Die Technologie ist zu schnell, die Regulierung zu langsam“, sagt eine Analytikerin der Brookings Institution. „Wenn wir nicht jetzt über Kontrolle und Grenzen sprechen, werden wir später keine Wahl mehr haben.“ Die Beteiligung von Figuren wie Harry und Meghan unterstreicht, dass die KI-Debatte längst über die Tech-Welt hinausgeht – sie ist eine gesellschaftliche, politische und menschliche Frage.

Verwandte Links

Harry und Bannon warn vor unkontrollierter KI-Entwicklung | Aktuelle Beiträge | HyperAI