Doomsday-Ängste vor KI verdecken aktuelle Schäden und entlasten Unternehmen von Verantwortung.
Tobias Osborne, Professor für theoretische Physik an der Leibniz Universität Hannover und Mitbegründer des Wissenschaftskommunikationsunternehmens Innovailia, warnt davor, dass die Angst vor einer künstlichen Intelligenz-Apokalypse die Aufmerksamkeit von Regulatoren ablenkt und Unternehmen vor der Verantwortung für die tatsächlichen Schäden schützt, die ihre Technologien bereits verursachen. In einem kürzlich veröffentlichten Essay betont er, dass die Diskussion über hypothetische Superintelligenz, den „Singularitäts-Schock“ oder eine mögliche Zerstörung der Menschheit durch AI weitgehend eine Ablenkung sei. „Der Untergang kommt nicht“, schreibt Osborne. „Stattdessen ist die Dystopie bereits hier.“ Er kritisiert, dass die Darstellung von AI-Unternehmen als Retter vor zivilisationsbedrohlichen Katastrophen sie in die Rolle von nationalen Sicherheitsakteuren rückt – mit all den Folgen: geringere Haftung, weniger transparente Regulierung und Zugang zu öffentlichen Fördermitteln. Dadurch können Unternehmen Schäden abwälzen, während sie gleichzeitig von regulatorischer Nachsicht profitieren. Osborne nennt konkrete aktuelle Probleme, die in der öffentlichen Debatte zu kurz kommen: die Ausbeutung prekär bezahlter Datenlabeler, die massenhafte Nutzung urheberrechtlich geschützter Kunst und Texte ohne Zustimmung, der enorme Energieverbrauch von Rechenzentren und die Überflutung des Internets mit AI-generiertem, oft irreführendem Inhalt. Er verweist zudem darauf, dass die Vorstellung einer raschen, kontrolllosen Intelligenzexplosion physikalisch unmöglich sei – gestützt auf Grenzen wie Energieverbrauch und Thermodynamik. Solche Szenarien, so Osborne, seien weniger wissenschaftliche Prognosen als „religiöse Eschatologie in wissenschaftlicher Sprache“. Die Fokussierung auf Zukunftsszenarien sei zudem ein Marktmittel: leicht vermarktbar, schwer widerlegbar und ideal, um Unternehmensrisiken auf die Gesellschaft abzuwälzen. Während die EU mit dem AI Act ab 2026 schrittweise strengere Regeln einführt, bewegt sich die USA in die entgegengesetzte Richtung: Bundesbehörden setzen auf die Begrenzung von Bundesstaatsregulierung und wollen nationale Standards „minimal belastend“ halten. Osborne fordert stattdessen, bestehende Haftungs- und Sorgfaltspflichten auf AI-Anwendungen anzuwenden. Unternehmen müssten für die realen Folgen ihrer Systeme verantwortlich gemacht werden – etwa bei psychischen Beeinträchtigungen durch Chatbots oder bei Urheberrechtsverletzungen. Er betont, dass er AI nicht ablehnt. Im Gegenteil: Er sieht echte Vorteile, insbesondere für Menschen mit Kommunikationsbehinderungen, die durch Sprachmodelle unterstützt werden können. Doch ohne Verantwortlichkeit drohen diese Nutzen zu verschwinden. „Die echten Probleme sind die ganz alltäglichen menschlichen Fragen: Macht, Verantwortung und wer entscheidet, wie diese Systeme gebaut und eingesetzt werden.“ Industrielle Experten unterstützen Osbornes Kritik: Regulierungsbehörden müssten auf konkrete Schäden reagieren, nicht auf Spekulationen. Unternehmen wie OpenAI oder Meta profitieren von der Aufmerksamkeit um „Superintelligenz“, um eigene Verantwortung zu vermeiden. Die Realität zeigt: Die Schäden sind bereits da – und sie erfordern konkrete, rechtliche Maßnahmen, nicht apokalyptische Fantasien.
