HyperAI
Back to Headlines

Forscher warnen vor Schwächen in AI-Kunstsicherungstools

vor 21 Stunden

AI-Kunstschutzwerkzeuge lassen Künstler immer noch gefährdet, sagen Forscher Ein internationales Team von Forschern hat erhebliche Schwächen in zwei der am häufigsten verwendeten Kunstschutzwerkzeuge entdeckt, die Künstler vor dem unbefugten Einsatz generativer Künstlicher Intelligenz (KI) schützen sollen. Diese Werkzeuge, Glaze und NightShade, wurden entwickelt, um Menschen davor zu bewahren, dass KI-Modelle ihre einzigartigen Stile ohne Zustimmung kopieren. Zusammen wurden sie fast neun Millionen Mal heruntergeladen. Glaze und NightShade fügen digitale Bilder subtile, unsichtbare Verzerrungen hinzu, die als "Giftstoffe" bezeichnet werden. Diese Verzerrungen sollen KI-Modelle während des Trainings verwirren. Glaze nimmt einen passiven Ansatz, indem es die Fähigkeit der KI beeinträchtigt, wesentliche stilistische Merkmale zu extrahieren. NightShade geht weiter und korruptiert den Lernprozess aktiv, indem es der KI ein falsches Verständnis von einem Künstlerstil vermittelt, indem es diesen Stil mit unverwandten Konzepten assoziiert. Forscher der Universität Cambridge, in Zusammenarbeit mit Kollegen der Technischen Universität Darmstadt und der Universität Texas at San Antonio, haben jedoch eine Methode namens LightShed entwickelt, die diese Schutzmaßnahmen umgehen kann. LightShed kann die Verzerrungen erkennen, dekodieren und beseitigen, sodass die Bilder wieder für das Training von KI-Modellen verwendet werden können. Der Prozess von LightShed besteht aus drei Schritten. Zunächst identifiziert es, ob ein Bild mit bekannten Giftstofftechniken manipuliert wurde. Im zweiten Schritt lernt es die Eigenschaften der Verzerrungen durch öffentlich verfügbare vergiftete Beispiele. Schließlich entfernt es das Gift, um das Bild in seine ursprüngliche, geschützte Form zurückzuversetzen. In experimentellen Auswertungen konnte LightShed NightShade-geschützte Bilder mit einer Genauigkeit von 99,98 % erkennen und die eingebetteten Schutzmechanismen effektiv entfernen. „Dies zeigt, dass Künstler auch dann noch gefährdet sind, wenn sie Werkzeuge wie NightShade verwenden, da ihre Arbeit weiterhin ohne ihre Zustimmung für das Training von KI-Modellen genutzt werden kann“, sagte Hanna Foerster vom Department of Computer Science and Technology der Universität Cambridge, die die Arbeit während eines Praktikums an der TU Darmstadt durchführte. Obwohl LightShed ernsthafte Sicherheitslücken in Kunstschutzwerkzeugen aufdeckt, betonen die Forscher, dass es nicht als Angriff auf diese Werkzeuge entwickelt wurde, sondern als dringender Aufruf zur Entwicklung besserer, anpassungsfähigerer Schutzstrategien. „Wir sehen dies als Chance, die Verteidigungsstrategien mitzuentwickeln“, sagte Co-Autor Professor Ahmad-Reza Sadeghi von der Technischen Universität Darmstadt. „Unser Ziel ist es, mit anderen Wissenschaftlern in diesem Bereich zusammenzuarbeiten und die künstlerische Gemeinschaft bei der Entwicklung von Werkzeugen zu unterstützen, die erweiterten Gegnern standhalten können.“ Das Gebiet der KI und digitalen Kreativität entwickelt sich rasch. Im März dieses Jahres rollte OpenAI ein ChatGPT-Bildmodell aus, das sofort Kunstwerke im Stil des japanischen Animationsstudios Studio Ghibli erstellen konnte. Dies löste eine Vielzahl viraler Meme aus und eine breite Diskussion über Bildrechte, bei der Rechtsexperten darauf hinwiesen, dass Studio Ghibli bei einer Reaktion auf solche Vorfälle begrenzt sein würde, da das Urheberrecht konkrete Ausdrucksformen, aber keinen spezifischen künstlerischen "Stil" schützt. Im Anschluss daran kündigte OpenAI an, Anfrage-sicherheitsmaßnahmen einzuführen, um einige Benutzeranfragen zum Generieren von Bildern im Stil lebender Künstler zu blockieren. Dennoch sind die Probleme rund um generative KI und Urheberrecht weiterhin aktuell. Aktuell wird in London ein Fall über Urheber- und Markenrechtsverletzungen verhandelt, in dem das globale Fotografieunternehmen Getty Images behauptet, dass das londonders AI-Unternehmen Stability AI sein großes Archiv von urheberrechtlich geschützten Bildern für das Training seines Bildgenerierungsmodells verwendet habe. Stability AI lehnt diese Vorwürfe ab und argumentiert, dass der Fall eine "offene Bedrohung" für die generative KI-Branche darstellt. Vor wenigen Wochen kündigten Disney und Universal an, dass sie die AI-Firma Midjourney wegen ihres Bildgenerierers verklagen, den beide Unternehmen als "unerschöpfliche Quelle der Plagiate" bezeichnen. „Mit unserer Arbeit hoffen wir, die dringende Notwendigkeit einer Roadmap für widerstandsfähigere, künstlerzentrierte Schutzstrategien hervorzuheben“, sagte Foerster. „Wir müssen Künstlern klar machen, dass sie weiterhin gefährdet sind, und mit anderen zusammenarbeiten, um in Zukunft bessere Schutzwerkzeuge zu entwickeln.“ Hanna Foerster ist Mitglied des Darwin Colleges der Universität Cambridge. Die Forscher sehen ihr Werk als wichtigen Beitrag zur Sicherheit und Integrität der künstlerischen Arbeit im Zeitalter der KI. Sie appellieren an die Branche, sich intensiver mit der Entwicklung robuster Schutzmechanismen zu beschäftigen. Unternehmen wie Getty Images, OpenAI, Disney und Universal zeigen bereits, dass das Thema Urheberrecht und KI eine zentrale Rolle spielt und dringend Lösungen benötigt. Die Veröffentlichung von LightShed soll Künstlern und Entwicklern eine Plattform bieten, um gemeinsam bessere Schutzstrategien zu finden.

Related Links