OpenAI klagt gegen Anordnung, gelöschte ChatGPT-Logs zu speichern
Letzten Monat ordnete eine Bundesrichterin, Richterin Ona Wang, OpenAI an, alle Daten von ChatGPT unendlich lange zu speichern, als Teil eines laufenden Urheberrechtsstreits. Die New York Times hat sowohl OpenAI als auch Microsoft 2023 wegen Verletzung von Urheberrechten verklagt, da die Unternehmen angeblich Millionen von Artikeln der Zeitung verwendet haben, um ihre KI-Sprachmodelle zu trainieren. OpenAI bezeichnet den Fall der Times als „unbegründet“ und argumentiert, dass das Training unter „fair use“ fällt. Bisher wurden Chat-Logs nur für Benutzer der kostenlosen, Plus- und Pro-Versionen von ChatGPT gespeichert, wenn diese nicht ausdrücklich dagegen eingewandt haben. Im Mai behaupteten die Times und andere Medienorganisationen jedoch, dass OpenAI „weitreichend und fortlaufend“ Chat-Logs lösche, die Beweise für Urheberrechtsverletzungen enthalten könnten. Daraufhin ordnete Richterin Wang an, dass ChatGPT alle Logs aufbewahren und segrieren muss, die normalerweise gelöscht würden. In ihrer Berufung beargumentet OpenAI, dass Wangs Anordnung „die Privatsphäre der Benutzer verletzt“ und dass die Anschuldigungen der Times „nicht begründet“ seien. Das Unternehmen schrieb, es habe keine Daten „zerstört“ oder aus Gründen des Rechtsstreits gelöscht. COO Brad Lightcap erklärte in einer Pressemitteilung, dass die Forderungen der Times und anderer Kläger „weitreichend und unnötig“ seien und „langjährige Datenschutzstandards aufgeben und den Schutz der Privatsphäre schwächen“. Auf X, dem Nachfolger von Twitter, äußerte CEO Sam Altman, dass die „unangemessene Forderung einen schlechten Präzedenzfall setzt“. Er forderte eine Diskussion über „KI-Privileg“, bei dem Gespräche mit KI-Systemen ähnlich wie mit Anwälten oder Ärzten geschützt sein sollten. „Meiner Meinung nach sollte ein Gespräch mit einer KI similarly geschützt sein wie ein Gespräch mit einem Anwalt oder Arzt. Ich hoffe, dass die Gesellschaft das bald klären wird“, schrieb Altman. Die Gerichtsentscheidung löste eine Welle der Panik aus, insbesondere auf sozialen Medien. Benutzer drückten auf Plattformen wie LinkedIn und X ihre Bedenken über die Privatsphäre aus. Ein LinkedIn-Benutzer warnte seine Klienten, vorsichtiger zu sein, was sie mit ChatGPT teilen. Ein X-Nutzer nannte die Entscheidung „völlig wahnsinnig“ und kritisierte, dass die Sorgen der Times über Urheberrechte die Privatsphäre aller OpenAI-Benutzer gefährden. Emma Roth, eine News-Autorin, die unter anderem über Streaming-Kriege, Consumer-Tech, Krypto und Social Media berichtet, betonte, dass obwohl viele Benutzer möglicherweise nicht besonders sensible Informationen in ChatGPT eingeben, es durchaus Menschen gibt, die das System als Therapeut, für Lebensberatung oder sogar als romantische Partnerin verwenden. Diese Benutzer verdienen laut Roth das Recht, ihre Inhalte privat zu halten. Gleichzeitig ist der Fall der Times nicht so unbegründet, wie OpenAI behauptet. Es ist wichtig, darüber zu diskutieren, wie KI-Modelle trainiert werden. Ein Beispiel dafür ist Clearview AI, das 30 Milliarden Bilder von Facebook gescraped hat, um seine Gesichtserkennungssysteme zu trainieren. Auch gibt es Berichte, dass die Bundesregierung Bilder verwundbarer Menschen für Tests von Gesichtserkennungssystemen verwendet. Diese Vorfälle zeigen, dass Unternehmen wie OpenAI möglicherweise explizite Zustimmung benötigen, um Inhalte zu nutzen, anstatt einfach alles aus dem Internet zu scrapen. OpenAI behauptet, dass die Gerichtsentscheidung die kostenlosen, Pro-, Plus- und Team-Benutzer von ChatGPT betreffen werde, während die Unternehmensversionen ChatGPT Enterprise und ChatGPT Edu sowie Geschäftskunden mit Null-Datenbehaltevereinbarungen davon nicht betroffen sind. Das Unternehmen versichert, dass die gespeicherten Daten nicht öffentlich gemacht werden und nur ein kleines, überprüftes rechtliches und Sicherheitsteam von OpenAI Zugriff darauf haben wird, ausschließlich zu rechtlichen Zwecken. Der Streit um Urheberrechte und Datenschutz in KI-Trainingsdaten hebt hervor, dass die Entwicklung von KI-Technologien immer komplexere ethische und rechtliche Fragen aufwirft. Experten und die Branche müssen sich damit auseinandersetzen, um faire und schützende Rahmenbedingungen zu schaffen. Die New York Times lehnte es ab, zu den Vorgängen Stellung zu nehmen, was die Spannung zwischen urheberrechtlichen Interessen und Datenschutzrechten weiter verstärkt. Diese Situation unterstreicht die Notwendigkeit, eine Balance zwischen dem Schutz geistigen Eigentums und der Privatsphäre der Benutzer zu finden. Ein möglicher Ausweg könnte das von Altman vorgeschlagene „KI-Privileg“ sein, das den Datenschutz bei KI-Gesprächen erhöht.
