Microsoft-Chef warnt vor künstlicher Superintelligenz als „Anti-Ziel“
Mustafa Suleyman, CEO of Microsoft’s AI division und ehemaliger Co-Gründer von DeepMind, hat sich kritisch zu der derzeitigen Hypeszene um künstliche Superintelligenz (ASI) in der Silicon Valley-Industrie geäußert. In einem Gespräch mit der „Silicon Valley Girl Podcast“ bezeichnete er den Aufbau einer künstlichen Superintelligenz nicht nur als riskant, sondern als „Anti-Ziel“. Laut Suleyman steht eine solche Technologie, die menschliche Intelligenz um Längen übertrifft, nicht im Einklang mit einer positiven Zukunftsvision. Er betonte, dass eine derartige Intelligenz extrem schwer zu kontrollieren und mit menschlichen Werten zu verknüpfen sei. Stattdessen setzt Suleyman auf die Entwicklung einer „humanistischen Superintelligenz“ – eines Systems, das menschliche Interessen fördert, ohne selbst bewusst oder moralisch verantwortlich zu sein. Er betont klar, dass KI keine Empfindungen hat, keine Schmerzen empfindet und lediglich hochqualitative Gespräche simuliert. Die Idee, KI bewusst oder moralisch zu attribuieren, sei daher ein Fehler. Seine Aussagen stehen im Gegensatz zu der zentralen Mission vieler Tech-Riesen. OpenAI-Chef Sam Altman sieht künstliche Allgemeine Intelligenz (AGI) als Kernziel und erwartet bereits in den nächsten Jahren den Übergang zu Superintelligenz. Er argumentiert, dass solche Systeme wissenschaftliche Entdeckungen und Innovationen dramatisch beschleunigen könnten und so zu einem massiven Anstieg von Wohlstand und Prosperität führen würden. Ähnlich äußerte sich Demis Hassabis, Mitbegründer von Google DeepMind, der im April prognostizierte, dass AGI innerhalb von fünf bis zehn Jahren erreicht werden könnte – eingebettet in den Alltag und in der Lage, komplexe, nuancierte Zusammenhänge zu verstehen. Diese optimistischen Prognosen werden jedoch von anderen führenden Experten in Frage gestellt. Yann LeCun, Chief AI Scientist bei Meta, warnt davor, zu schnell zu optimistisch zu sein. Er betont, dass viele der interessantesten Probleme extrem schlecht skalieren und dass mehr Daten oder Rechenleistung nicht automatisch zu intelligenterem Verhalten führen. Laut ihm könnte die Erreichung von AGI noch Jahrzehnte entfernt sein. Suleymans Position markiert eine bewusste Abkehr von der „Höchstleistung“-Kultur in der KI-Entwicklung. Sein Ansatz legt den Fokus auf Verantwortung, Kontrolle und menschliche Zentriertheit. Dies könnte sich als entscheidend erweisen, wenn die Technologie in die breite Anwendung kommt. Die Debatte um Superintelligenz ist nicht nur technologisch, sondern ethisch und gesellschaftlich. Während einige Tech-Größen die Entwicklung als unvermeidlich und förderlich sehen, plädiert Suleyman für eine vorsichtige, wertegeleitete Herangehensweise. Sein Aufruf, ASI als Anti-Ziel zu betrachten, könnte eine wichtige Stimme in der Diskussion um die Zukunft der KI werden – besonders in einem Umfeld, in dem die Grenzen zwischen Fortschritt und Risiko zunehmend verschwimmen.
