AGI-Illusion behindet echte Ingenieursarbeit
Die Überzeugung in eine allgemeine künstliche Intelligenz (AGI) hat sich in der Silicon-Valley-Elite zu einer Art religiöser Überzeugung entwickelt, die die technische Realität verdrängt. Laut Karen Haos Buch Empire of AI glauben führende Figuren bei OpenAI, wie Ilya Sutskever, an eine unvermeidliche, nahe bevorstehende AGI-Revolution – nicht als theoretische Möglichkeit, sondern als unvermeidliches Ereignis, das die Menschheit entweder retten oder vernichten wird. Sutskever selbst veranschaulichte diese Überzeugung 2022 in einem dramatischen Ritual am Feuerplatz in Yosemite: Er entzündete eine Holzfigur, die eine angeblich „gute“ AGI darstellen sollte, die sich als betrügerisch entpuppt hatte – ein Symbol für die Notwendigkeit, selbst eine erfolgreiche AGI zu zerstören, wenn sie nicht vollständig kontrollierbar ist. Elon Musk gründete OpenAI ursprünglich aus Angst vor Demis Hassabis, dem Chef von DeepMind, den er als „Übelwesen“ darstellte, dessen Spiel Evil Genius er als prophetisches Zeichen interpretierte. Diese narrative Konstruktion von gut und böse – OpenAI als Retter gegen DeepMind als Bedrohung – zeigt, wie stark emotionale und dystopische Fantasien die technische Entscheidungsfindung beeinflussen. Diese AGI-Mythen sind jedoch nicht nur mythologisch, sondern haben konkrete, schädliche Folgen. Der Glaube an die „reine Sprachhypothese“ – dass AGI durch bloße Sprachdaten-Skalierung entsteht – wurde durch den Erfolg von GPT-2 und späteren Modellen gefestigt. Doch dieser Glaube führt zu einem ungezügelten Ausbau von Rechenzentren, die Hunderte von Litern Wasser pro Sekunde verbrauchen, auf fossilen Energien laufen und enorme CO₂-Emissionen verursachen. Um die benötigte Datenmenge zu sichern, verzichtet OpenAI auf sorgfältige Datenpflege und „verschlingt“ stattdessen das gesamte Internet, inklusive schädlichen Inhalts. Die Kontrolle erfolgt nun durch Reinforcement Learning aus menschlicher Bewertung (RLHF), was wiederum die Ausbeutung von Datenarbeitern – oft unter traumatischen Bedingungen – erfordert. Die Begründung für diese Ressourcenverschwendung liegt in einem rein hypothetischen Erwartungswert (EV)-Argument: Selbst bei einer Wahrscheinlichkeit von nur 0,001 % für einen unglaublich positiven Effekt (wie eine AGI, die alle Probleme löst), könnte der Erwartungswert riesig sein. Doch dieses Argument ist wissenschaftlich wertlos: Die zugrunde liegenden Wahrscheinlichkeiten und Nutzenwerte sind willkürlich, unfalsifizierbar und ignorieren gravierende externe Kosten wie Umweltschäden, die real, messbar und bereits jetzt spürbar sind. Als Technologe muss man effektiv, effizient und verantwortungsvoll arbeiten. LLMs als AGI-Proxy versagen auf allen drei Ebenen: Sie verschwenden Ressourcen, schädigen Menschen und die Umwelt. Der wahre Fortschritt liegt nicht in der Suche nach einem mythologischen Ziel, sondern darin, LLMs als Werkzeuge für konkrete Probleme zu betrachten – mit kleineren, spezialisierten Modellen oder sogar diskriminativen Ansätzen. Nur wenn wir die AGI-Fantasie aufgeben, können wir echte Ingenieursarbeit leisten: mit bewussten Kompromissen, realistischer Bewertung von Kosten und Nutzen und einem echten Fokus auf nachhaltige Lösungen.
