Richter entscheidet für Anthropic in AI-Buchrechtsstreit
Ein Bundesrichter hat entschieden, dass es für die KI-Firma Anthropic legal ist, ihre KI-Modelle mit veröffentlichten Büchern zu trainieren, ohne die Genehmigung der Autoren einzuholen. Dies ist das erste Mal, dass Gerichte den Anspruch von KI-Unternehmen auf die "fair use"-Doktrin bestätigt haben, die sie verwenden, um die Nutzung urheberrechtlich geschützter Materialien zu rechtfertigen. Richter William Alsup vom US-Distriktsgericht für den Nordbezirk von Kalifornien urteilte, dass Anthropics Nutzung von legally gekauften Büchern zur Ausbildung seines KI-Modells Claude als "wesentlich transformatorisch" und damit innerhalb der "fair use"-Regeln fällt. Anthropic wurde 2023 von ehemaligen Executiven von OpenAI gegründet und Claude kann wie andere generative KI-Modelle natürlichsprachliche Fragen beantworten, nachdem es auf Millionen von Büchern, Artikeln und anderen Materialien trainiert wurde. In seiner Entscheidung stellte Richter Alsup klar, dass Anthropic die Bücher nicht kopierte, um sie zu replizieren oder zu ersetzen, sondern um etwas Neues und Unterschiedliches zu schaffen. Er verglich dies mit dem Prozess, bei dem Leser lernen, selbst Schriftsteller zu werden, und betonte, dass das Urheberrecht darauf abzielt, kreative Werke zu fördern, nicht aber Autoren vor Konkurrenz zu schützen. Dieser Sieg für Anthropic ist jedoch nur teilweise, da das Gericht auch entschied, dass die Firma einen separaten Prozess wegen des Downloadens von Millionen piratisierten Büchern aus dem Internet durchlaufen muss. Die Kläger, darunter Autorinnen und Autoren wie Andrea Bartz, Charles Graeber und Kirk Wallace Johnson, hatten im letzten Jahr gegen Anthropic wegen angeblicher Urheberrechtsverletzungen geklagt. Sie behaupteten, dass die Firma "großflächig stahl" und von den menschlichen Ideen und Ausdrücken der Autoren profitieren wollte. Obwohl Richter Alsup die Nutzung von legal erworbenen Büchern als "fair use" anerkannte, kritisierte er die Nutzung piratisierter Kopien. In seinem Urteil schrieb er, dass die Firma später Druckexemplare von Büchern kaufte, die sie zuvor illegal aus dem Internet heruntergeladen hatte, aber dies die Haftung für den Diebstahl nicht aufhebt. Der Prozess soll im Dezember stattfinden und mögliche Schadenersatzforderungen klären. Diese Entscheidung wirkt sich auch auf andere KI-Unternehmen aus, die ähnliche Rechtsstreitigkeiten führen. Zum Beispiel hat die New York Times 2023 OpenAI und Microsoft geklagt, weil diese Firmen Millionen von Zeitungsartikeln genutzt hätten, um ihre automatischen Chatbots zu trainieren. Gleichzeitig suchen einige Medienunternehmen und Verlage Anreize, indem sie ihren Inhalt an KI-Unternehmen lizenzieren. Die "fair use"-Doktrin, die seit 1976 besteht, ist oft schwierig zu interpretieren, insbesondere in Zeiten der Internet- und KI-Technologien. Sie berücksichtigt die Art der Nutzung, ob es kommerzielle Vorteile gibt, und wie transformatorisch das abgeleitete Werk ist. Die Autoren und Verlage, die gegen KI-Unternehmen vorgehen, argumentieren, dass die Nutzung ihrer Inhalte ohne Zustimmung ein schwerwiegender Verstoß gegen das Urheberrecht ist. Experten sehen die Entscheidung von Richter Alsup als eine wichtige Grundlage für zukünftige Rechtsstreitigkeiten, die jedoch auch die Komplexität des Themas aufzeigt. Die Frage, ob die Ausgaben eines KI-Modells selbst Urheberrechte verletzen, bleibt weiterhin offen und wird in anderen Fällen behandelt. Anthropic begrüßte die Entscheidung und betonte, dass sie die "fair use"-Doktrin nutzen durfte, um ihre KI-Modelle zu trainieren. Ein Sprecher der Firma sagte, dass die Nutzung der Bücher dazu diente, die Kreativität und wissenschaftlichen Fortschritte zu fördern. Dennoch wird die Firma weiterhin überprüft, insbesondere hinsichtlich der illegalen Herunterladungen, die möglicherweise Schadensersatz in die Millionenhöhe nach sich ziehen könnten. Die Entscheidung von Richter Alsup legt den Grundstein für eine mögliche Präzedenzstellung, die technische Unternehmen in Urheberrechtsfragen begünstigen könnte. Allerdings bleibt die Frage offen, ob andere Gerichte dieser Linie folgen und ob die Ausgaben von KI-Modellen selbst als urheberrechtliche Verletzungen angesehen werden. Die Reaktionen der Branche und der Öffentlichkeit zeigen, dass das Thema weiterhin umstritten ist und dass ein ausgewogener Ansatz zwischen Innovation und Schutz geistigen Eigentums gesucht wird.