HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI wiederholt Copyright-Fehler – Vertrauen schwindet

OpenAI hat erneut um Entschuldigung gebeten, nachdem es ohne ausdrückliche Genehmigung urheberrechtlich geschütztes Material verwendet hatte – diesmal im Zusammenhang mit der künstlerischen Darstellung von Martin Luther King Jr. in seinem Video-Generatormodell Sora. Die Entscheidung, die Nutzung der Ähnlichkeit des Bürgerrechtsführers zu pausieren, folgte auf Beschwerden seiner Erben. Dies ist jedoch kein Einzelfall: Bereits Anfang des Monats hatte OpenAI Maßnahmen ergriffen, um die Erstellung von Videos mit Hollywood-Charakteren zu erschweren, nachdem die Filmindustrie kritisiert hatte. Und bereits im Vorjahr hatte das Unternehmen einen künstlichen Stimmen-Clon, der stark an Scarlett Johansson erinnerte, abgeschaltet – nachdem die Schauspielerin ihre Zustimmung verweigert und die Nutzung als Verletzung ihres Persönlichkeitsrechts kritisiert hatte. Diese Muster wiederholen sich: OpenAI setzt neue Technologien mit minimalen rechtlichen Vorkehrungen in die Welt, reagiert erst, wenn Rechteinhaber oder deren Anwälte Einspruch erheben. CEO Sam Altman räumte dies selbst ein, indem er betonte, dass man „gute und falsche Entscheidungen“ treffen werde, aber schnell darauf reagieren werde. Executive Varun Shetty bestätigte, dass die lockeren Regeln bewusst gewählt wurden, um im Wettbewerb nicht benachteiligt zu werden – insbesondere gegenüber anderen KI-Unternehmen, die ähnliche Ansätze verfolgen. Ob dies Absicht oder Fehlverhalten ist, spielt mittelfristig kaum eine Rolle. Entscheidend ist, dass OpenAI weiterhin ein Muster befolgt: Nutzen ohne Genehmigung, Rückzug erst nach Druck. Die langfristige Akzeptanz der Technologie hängt jedoch davon ab, ob Unternehmen, Künstler und die Öffentlichkeit Vertrauen in die Fairness und Rechtskonformität der KI-Entwicklung haben. Ohne klare Rechtsgrundlagen und verbindliche Lizenzverträge – wie beispielsweise mit Axel Springer, dem Publisher von Business Insider – wird das Vertrauen in die KI-Plattformen schwinden. Für den normalen Nutzer mag das zunächst wenig Auswirkungen haben. Doch wenn KI-Systeme künftig Aufgaben wie Reiseplanung, Kundenservice oder Medienproduktion übernehmen sollen, ist Vertrauen in die Rechtsordnung entscheidend. Ein „Bitte um Verzeihung statt um Erlaubnis“-Ansatz funktioniert nur solange, wie keine strukturellen Konflikte entstehen. Sobald die Rechtsunsicherheit zu groß wird, wird die Akzeptanz sinken – und mit ihr die Zukunft der KI-Technologie.

Verwandte Links