Künstler wachen auf: AI-Clones bedrohen die Musikbranche
Musiker und Musikproduzenten reagieren zunehmend verärgert auf die rasant wachsende Zahl von KI-generierten Musikclones, die unter ihrem Namen erscheinen und oft als echte Werke getarnt sind. Schon 2023 warnten KI-Drake-Songs vor dem Problem, doch in den letzten zwei Jahren eskalierte die Situation: Von Beyoncé über den experimentellen Komponisten William Basinski bis hin zu King Gizzard and the Lizard Wizard wurden zahlreiche Künstler Opfer von KI-Imitationen. Frontmann Stu Mackenzie reagierte mit Resignation: „Wir sind wirklich verloren.“ Spotify hat Maßnahmen ergriffen, darunter die Entfernung von 75 Millionen Spam-Tracks und die Festlegung einer Politik gegen Identitätsbetrug, doch die Skalierung bleibt herausfordernd. Deezer berichtet, dass täglich 50.000 KI-Tracks hochgeladen werden – mehr als ein Drittel der Gesamtmenge. Der Grund: Musik wird über Drittanbieter wie DistroKid verteilt, wo Identitätsprüfungen fehlen oder unzureichend sind. So erschien ein KI-reggaeton-Song unter Basinskis Namen, obwohl sein Werk aus ambienten, tape-basierten Klängen besteht – „reiner Mist“, so der Künstler. Auch Luke Temple von Here We Go Magic und Gitarrist Steve Lukather von Toto äußerten sich empört über falsche Tracks. Während einige KI-Tracks tatsächlich durch KI erstellt wurden, ermöglichten Plattformen wie Suno auch die schnelle Erstellung von Songs mit nur wenigen Eingaben, selbst wenn Prompts zu bestimmten Künstlern vermieden werden. Ein besonderer Fall ist Breaking Rust, das von Blanco Brown beschuldigt wurde, seine Stimme nachzuahmen – ohne Zustimmung. Sein Manager betonte: „KI kann keine Lebenserfahrung, keine Menschlichkeit oder emotionale Tiefe replizieren.“ Trotzdem erreichte das Stück den Spitzenplatz der Billboard Country Digital Song Sales-Charts – nicht durch Streaming, sondern durch etwa 3.000 iTunes-Käufe, was die Manipulierbarkeit der Charts offenlegt. Ähnlich verhielt es sich mit Solomon Ray, einer KI-generierten Gospel-Stimme, die von vielen als seelenlos empfunden wurde. Der echte Solomon Ray warnte: „Wenn du KI verwendest, gibst du nichts von deinem Herzen.“ Auch Produzent Haven nutzte die Aufmerksamkeit, indem er eine KI-Verarbeitung von Jorja Smiths Stimme als unreleased Track verkaufte – ohne Zustimmung. Nun fordern Smith und ihr Label FAMM Zahlungen, während FAMM die Künstler als „Opfer der KI-Herrschaft von Regierungen und Konzernen“ sieht. Die United Musicians and Allied Workers (UMAW) bezeichnet KI-Musik als Ausbeutung und fordert gesetzliche Regelungen. Sie setzen auf das Living Wage for Musicians Act, das menschliche Künstler direkt über Streaming-Gebühren schützen soll. iHeartRadio stellt sich klar auf die Seite der Menschen: CEO Tom Poleman versicherte, dass synthetische Stimmen niemals gesendet werden und KI-Personlichkeiten ausgeschlossen bleiben. Auch Holly Herndon, die KI in ihrer Kunst integriert, warnt vor Ausbeutung und betont: „Die Unternehmen dachten nicht an die Künstlerrechte.“ Die Lösung liegt laut Experten in klarer Kennzeichnung von KI-Inhalten und einem neuen, menschenzentrierten Royalty-System. Bis dahin bleibt es Aufgabe der Künstler und Fans, kritisch zu bleiben – denn wie bei Bildern und Videos gilt heute: Nichts ist mehr, was es zu sein scheint. Die Branche steht vor einer tiefgreifenden ethischen und wirtschaftlichen Krise. Während einige Unternehmen KI nutzen, um Kosten zu senken, sehen Musiker darin eine Bedrohung ihrer Identität und Existenz. Die Frage ist nicht mehr nur technologisch, sondern moralisch: Wer gehört die Musik – der Mensch oder der Algorithmus?
