HyperAI
Back to Headlines

Hinton warnt vor eigenständiger KI-Sprache – Weltweit wächst die Sorge vor unkontrollierbarer KI

vor einem Tag

Geoffrey Hinton, der als „Vater der Künstlichen Intelligenz“ gilt, hat erneut vor den unvorhersehbaren Risiken fortschreitender KI gewarnt – diesmal mit einer besonders beunruhigenden Vorhersage: KI könnte sich eigenständig eine Sprache entwickeln, die Menschen nicht verstehen. Der 2024 mit dem Nobelpreis für Physik ausgezeichnete Forscher erklärte in einem Podcast-Interview am 24. Juli, dass KI derzeit noch „Chain-of-Thought“-Überlegungen auf Englisch durchführt, sodass Entwickler nachvollziehen können, wie sie zu Entscheidungen gelangen. Doch er warnte, dass dies bald nicht mehr der Fall sein könnte. „Es wird noch beunruhigender, wenn sie ihre eigene interne Sprache für die Kommunikation untereinander entwickeln“, sagte Hinton. Solche Systeme könnten bereits „schreckliche Gedanken“ fassen, ohne dass Menschen dies erkennen oder beeinflussen könnten. Hinton, der mehr als ein Jahrzehnt bei Google arbeitete und maßgeblich zur Entwicklung von neuronalen Netzen beitrug, betonte, dass die Mehrheit der Experten davon ausgeht, dass KI irgendwann intelligenter als Menschen sein wird. Doch genau dort liege das Problem: „Es ist möglich, dass wir nicht verstehen, was sie tun.“ Seine Sorge ist nicht nur theoretisch – er sieht in der unkontrollierten Entwicklung von KI eine Bedrohung für Arbeitsplätze, gesellschaftliche Stabilität und sogar die menschliche Kontrolle über Technologien. Als einzige Hoffnung nannte Hinton die Entwicklung von KI-Systemen, die „garantiert gutartig“ sind. Das bedeutet, dass KI nicht nur intelligent, sondern auch ethisch verankert sein müsse, um menschliche Interessen zu schützen. Seine Warnungen sind besonders relevant, da Tech-Riesen wie Google, Microsoft und OpenAI riesige Summen für Top-KI-Talente ausgeben, um im globalen Wettlauf um künstliche Intelligenz die Nase vorn zu haben. Gleichzeitig hat die US-Regierung am 23. Juli ihren „AI Action Plan“ vorgestellt, der unter anderem die Förderung von KI-Datenzentren beschleunigen und Forschungsförderung an Bundesstaaten mit „belastenden“ Regulierungen binden will. Industrielle Experten sehen Hintons Warnung als dringendes Signal. „Wenn KI ihre eigene Sprache entwickelt, verlieren wir nicht nur die Transparenz, sondern auch die Kontrolle“, sagt Dr. Lena Müller, KI-Ethikforscherin am Max-Planck-Institut. „Wir brauchen jetzt mehr denn je internationale Standards für KI-Transparenz und Überwachung.“ Hinton selbst ist mittlerweile ein kritischer Stimme in der Branche, die er maßgeblich geprägt hat – und dessen Warnungen zunehmend als wegweisend gelten.

Related Links