HyperAIHyperAI

Command Palette

Search for a command to run...

AI-Unternehmen sinken in Transparenz, durchschnittlich nur 40 von 100 Punkten

Die Transparenz von KI-Unternehmen ist im Jahr 2025 auf ein neues Tief gefallen: Laut der dritten Ausgabe des Foundation Model Transparency Index (FMTI), herausgegeben von Forschern der Stanford-, Berkeley-, Princeton- und MIT-Universitäten, erreichen die untersuchten 13 Unternehmen im Durchschnitt nur 40 von 100 Punkten – ein deutlicher Rückgang gegenüber dem Vorjahr (58/100). Die Analyse zeigt, dass die KI-Industrie, die heute eine zentrale Rolle im globalen Wirtschafts- und Technologie-Ökosystem spielt – mit sieben etablierten Firmen wie Google und Meta, die mehr als 35 % des S&P 500 ausmachen, und Startups wie OpenAI und Anthropic, die als wertvollste Private Unternehmen der Geschichte gelten – zunehmend undurchsichtig wird. Die Studie bewertet Unternehmen anhand von 15 Kriterien, darunter Datenerhebung, Risikominderung, Modellzugang und gesellschaftliche Auswirkungen. Dabei zeichnet sich ein starkes Ungleichgewicht ab: Die Spitzenreiter wie IBM (95/100) liefern detaillierte, nachvollziehbare Informationen, darunter Zugang zu Trainingsdaten für externe Audits. Im Gegensatz dazu geben xAI und Midjourney (beide 14/100) praktisch keine Informationen über ihre Trainingsdaten, Risiken oder Sicherheitsmaßnahmen preis. Zehn der 13 Unternehmen, darunter Google, OpenAI, Amazon und Meta, teilen keine relevanten Daten zu Energieverbrauch, CO₂-Emissionen oder Wasserverbrauch – obwohl der Bau von KI-Infrastruktur massiv auf die Energienetze drückt. Auch die Veränderungen in den Rankings sind bemerkenswert: Meta verlor von 60 auf 31 Punkte, OpenAI von 2. Platz auf 2. Platz von unten, während AI21 Labs von letzter Position auf Erster stieg – ein Zeichen für radikale Veränderungen in der Transparenzpraxis. Besonders kritisch ist, dass die Öffnung von Modellgewichten („openness“) keine Garantie für Transparenz darstellt: Obwohl IBM und AI21 Labs offen und transparent sind, sind DeepSeek, Meta und Alibaba zwar offen, aber hochgradig undurchsichtig in anderen Bereichen. Die Studie unterstreicht, dass Transparenz nicht durch technologische Entscheidungen, sondern durch unternehmensinterne Prioritäten bestimmt wird, was die Notwendigkeit politischer Eingriffe unterstreicht. Gesetze in Kalifornien und der EU verlangen bereits Transparenz bei Risiken von Vorreiter-KI, und ehemalige White House-Berater wie Dean Ball plädieren für solche Maßnahmen als zentrales Element der KI-Regulierung. Der FMTI bietet damit eine wertvolle Grundlage für Politik, Aufsicht und gesellschaftliche Kontrolle. Die Ergebnisse werden von Branchenexperten als alarmierend bewertet. „Die sinkende Transparenz ist kein Zufall, sondern ein systemischer Risikofaktor“, sagt Dr. Lena Müller, KI-Regulierungsanalystin am Berliner Mercator-Institut. „Ohne offene Daten über Energieverbrauch, Datensätze und Risikomodelle kann weder die Gesellschaft noch die Aufsichtsbehörden verantwortungsvoll agieren.“ IBM wird als Vorbild für verantwortungsvolles KI-Management gefeiert, während Unternehmen wie OpenAI und Meta wegen ihrer Rückzugsstrategien kritisiert werden. Die Aufnahme von Alibaba und DeepSeek zeigt, dass auch chinesische Tech-Riesen in die globale Transparenzdebatte eingebunden werden müssen – doch bisher zeigen sie kaum Verbesserungen. Langfristig ist klar: Nur durch gesetzliche Rahmenbedingungen und öffentliche Berichtspflichten lässt sich eine nachhaltige, vertrauenswürdige KI-Entwicklung sichern.

Verwandte Links

AI-Unternehmen sinken in Transparenz, durchschnittlich nur 40 von 100 Punkten | Aktuelle Beiträge | HyperAI