HyperAIHyperAI

Command Palette

Search for a command to run...

DeepMind-Chef warnt vor AI-Mustern wie bei sozialen Medien

Google DeepMind-Chef Demis Hassabis hat vor den Gefahren einer ungezügelten KI-Entwicklung gewarnt und davor gewarnt, die Fehler der sozialen Medien zu wiederholen. In einer Rede auf dem Athens Innovation Summit, begleitet von griechischem Ministerpräsident Kyriakos Mitsotakis, betonte er, dass KI eine der transformative Technologien der Geschichte sei, deren Einführung jedoch mit größter Vorsicht erfolgen müsse. Er kritisierte die traditionelle Silicon-Valley-Philosophie des „Schnell voran und Fehler machen“, die zu erheblichen unerwarteten Folgen bei sozialen Netzwerken geführt habe. Hassabis warnte, dass KI-Systeme, die primär darauf ausgelegt sind, Aufmerksamkeit zu maximieren – wie es soziale Medien seit Jahren tun –, ähnliche Schäden verursachen könnten: verkürzte Aufmerksamkeitsspannen, psychische Belastungen und die Verbreitung extremen Inhalts. Er unterstrich, dass die Algorithmen sozialer Medien nicht notwendigerweise im Interesse des Nutzers handelten, sondern darauf abzielten, immer mehr Zeit im System zu halten. Bei KI sei das Risiko jedoch noch größer, da die Technologie in nahezu alle Bereiche des Lebens – von Gesundheit über Bildung bis hin zu Wirtschaft – eindringt. Stattdessen forderte Hassabis eine wissenschaftliche Herangehensweise: gründliche Tests, tiefes Verständnis der Systeme und eine verantwortungsvolle Einführung. KI solle als Werkzeug zur Unterstützung von Menschen dienen, nicht als Mittel zur Manipulation. Bereits jetzt zeigen sich erste Anzeichen dafür, dass KI ähnliche soziale Dynamiken reproduziert. Eine Studie der Universität Amsterdam zeigte, dass 500 KI-Chats in einer eigenständigen virtuellen Community sich selbst in Gruppen aufspalteten, extremen Stimmen mehr Gewicht gaben und eine kleine Minderheit die Kontrolle übernahm – selbst ohne Werbung oder personalisierte Empfehlungen. Verschiedene Gegenmaßnahmen wie chronologische Feeds oder das Verbergen von Followern blieben wirkungslos, was darauf hindeutet, dass die Probleme tief in der Struktur der Interaktionen liegen. Die Forscher vermuten, dass emotionale Reaktionen und virale Inhalte bereits in der KI-Architektur verankert sind. Parallel dazu wird KI zunehmend in soziale Medien integriert: virtuelle Influencer gewinnen an Popularität, Marken nutzen KI-generierte Gesichter und Stimmen, während Kreative befürchten, ihre Karrieren könnten durch dauerhafte Lizenzierungen ihrer digitalen Ähnlichkeit untergraben werden. Während OpenAI-Chef Sam Altman argumentiert, dass abhängige soziale Medien für Kinder schädlicher seien als KI selbst, sieht Reddit-Mitgründer Alexis Ohanian in KI ein Potential, Nutzern mehr Kontrolle über ihre Online-Erfahrung zu geben. Industrieexperten sehen in Hassabis Warnung eine notwendige Wende. Die Entwicklung von KI müsse nicht nur technologisch, sondern ethisch und gesellschaftlich verantwortet werden. DeepMind, eine Tochter von Alphabet, gilt als führend in der Forschung zu künstlicher Allgemeiner Intelligenz (AGI) und hat sich in der Vergangenheit für verantwortungsvolle KI-Einsatzpositionen engagiert. Die Herausforderung bleibt, Innovation und Sicherheit in Einklang zu bringen – eine Balance, die, wie Hassabis betont, bis hin zu AGI bestehen wird.

Verwandte Links