Unternehmen warn vor AI-Risiken in SEC-Dateien
In einer zunehmenden Zahl von Jahresberichten an die US-amerikanische Wertpapieraufsichtsbehörde SEC warnen Unternehmen Investoren vor erheblichen Risiken, die durch den Einsatz von Künstlicher Intelligenz entstehen können. Laut einer Analyse mit AlphaSense haben bisher 418 börsennotierte Unternehmen mit einem Marktwert von mehr als einer Milliarde Dollar im Jahr 2025 AI-bezogene Risikofaktoren aufgeführt – ein Anstieg um 46 % gegenüber 2024 und etwa neunmal so hoch wie im Jahr 2023. Die Hauptbedenken drehen sich um Reputationsrisiken durch fehlerhafte, voreingenommene oder sicherheitskritische KI-Ausgaben, Verletzungen von Urheberrechten oder den Missbrauch sensibler Daten. Take-Two Interactive Software hob in seinem SEC-Report 2025 die Risiken besonders hervor und verdoppelte die Wortanzahl seiner AI-Risikobeschreibung gegenüber dem Vorjahr. CEO Strauss Zelnick betonte, dass mit steigender Nutzung und Experimentierung auch das Risiko wachse. Auch Finanzdienstleister wie Visa sehen Gefahren: Bei der Skalierung agenter KI in Zahlungsprozessen könnte es zu falschen oder umstrittenen Zahlungen, höheren Rückbuchungen und Reputationsschäden kommen. Der Konsumgüterhersteller Clorox warnte vor Datenlecks durch KI-Tools, während das Kosmetikunternehmen ELF Beauty darauf hinwies, dass die Fähigkeit, sich an neue regulatorische und ethische Standards im Bereich KI anzupassen, entscheidend für Geschäftsfortführung und finanzielle Stabilität sei. Diese Warnungen sind rechtlich verpflichtend, wenn neue oder sich verändernde Risiken vorliegen. M. Todd Henderson von der University of Chicago Law School sieht darin einen bewussten Mechanismus: „Man muss bekannte Unbekannte offenlegen.“ Im Gegensatz zur Internet-Boom-Ära der 1990er Jahre, in der die Risiken eher beschränkt und optimistisch formuliert waren, zeigen die aktuellen AI-Warnungen eine deutlich ernsthaftere und weitreichendere Sorge. Henderson vergleicht die Gefahren von KI-Halluzinationen – etwa falschen medizinischen Diagnosen oder rechtlichen Fehlentscheidungen – mit klassischen Sicherheitsverletzungen, da sie das Kerngeschäft eines Unternehmens direkt gefährden können. Auch der menschliche Faktor spielt eine Rolle: Eine Umfrage von KPMG und der University of Melbourne ergab, dass 66 % der Mitarbeiter KI-Ausgaben ohne kritische Prüfung nutzen und 72 % weniger Arbeitsaufwand zeigen, weil sie auf KI setzen. Trotz dieser Risiken bleibt die strategische Bedeutung von KI für Produktivitätssteigerungen unbestritten. Der durchschnittliche AI-Aufwand von Unternehmen stieg 2024 gegenüber dem Vorjahr auf rund 10,3 Millionen Dollar – eine Verdoppelung, wie Bain & Co. berichtet. Bei Take-Two ermöglicht KI laut Zelnick die Entlastung von Routineaufgaben und ermöglicht es Mitarbeitern, sich auf kreative und anspruchsvollere Aufgaben zu konzentrieren – etwa bei der Entwicklung von Spielinhalten. Dennoch bleibt die Balance schwierig: Nicht zu nutzen, könnte ebenso gefährlich sein wie falsch zu nutzen. Diese Spannung spiegelt sich in vielen SEC-Dateien wider und zeigt, dass KI heute als entscheidende, aber zweischneidige Kraft im Unternehmensalltag gilt. Industrieexperten sehen in den Warnungen eine Reife der KI-Debatte: Unternehmen erkennen, dass technologische Innovation nicht ohne Risikomanagement möglich ist. Die Kombination aus hoher Investition und transparenter Risikodokumentation signalisiert, dass KI nicht mehr nur ein Trend, sondern ein zentraler strategischer Faktor ist, der tiefgreifende Auswirkungen auf Geschäftsmodelle, Compliance und Markenwert hat.
