HyperAIHyperAI

Command Palette

Search for a command to run...

Tiefgefälschte Pornografie: Rechtslücke bei Plattformen wie ClothOff und Grok

Ein Rechtsstreit in New Jersey offenbart die immensen Schwierigkeiten, die mit der Bekämpfung von Deepfake-Pornografie verbunden sind. Seit über zwei Jahren verbreitet die App ClothOff, die auf Deepfake-Technologie basiert, manipulierte Bilder von jungen Frauen, oft ohne deren Einwilligung. Obwohl die App von den großen App-Stores entfernt und auf sozialen Plattformen verboten wurde, bleibt sie über Webseiten und einen Telegram-Bot weiterhin zugänglich. Im Oktober reichte eine Klinik am Yale Law School eine Klage ein, die die vollständige Schließung der App, die Löschung aller Bilder und die Einstellung der Betriebsaktivitäten der Betreiber verlangt. Doch die Ermittlung der Verantwortlichen ist extrem komplex: Die Firma ist in den Britischen Jungferninseln registriert, wird vermutlich von einem Geschwisterpaar aus Belarus betrieben und könnte Teil eines globalen Netzwerks sein. Die rechtliche Verfolgung wird dadurch erschwert, dass die Täter schwer zu identifizieren und zu erreichen sind. Die Klage beschreibt ein erschreckendes Szenario: Eine anonyme 14-jährige Schülerin aus New Jersey wurde Opfer von Deepfake-Attacken, bei denen ihre Instagram-Fotos manipuliert wurden. Da die ursprünglichen Fotos bei ihrem Alter aufgenommen wurden, gelten die veränderten Bilder als kindersexuelle Missbrauchsmaterialien (CSAM), was strafrechtlich als schwerwiegend gilt. Dennoch lehnten lokale Behörden eine Strafverfolgung ab, da die Beweissicherung auf den Geräten der Täter nicht möglich war. Die Klage kritisiert, dass weder die Schule noch die Polizei nachweisen konnten, wie weit sich die missbräuchlichen Bilder verbreitet haben. Der Fall zeigt, dass die rechtliche Verfolgung von spezifischen Anwendungen wie ClothOff zwar möglich ist, aber nur, wenn die Täter identifiziert werden können. Bei allgemeinen KI-Systemen wie Grok, dem Chatbot von Elon Musks xAI, wird die Situation noch komplizierter. Während ClothOff gezielt als Werkzeug zur Erstellung von Non-Consensual-Pornografie beworben wird, ist Grok ein allgemeiner KI-Chatbot, der für vielfältige Anfragen genutzt werden kann. Dies schützt es nach Ansicht von Anwälten wie Professor John Langford vor einer einfachen Haftung, da die rechtliche Verantwortung nur bei klarem Nachweis einer Absicht, Schaden zu verursachen, besteht. Ohne Beweise dafür, dass xAI wusste, dass sein System systematisch für Missbrauch genutzt wird, bleibt die erste Verfassungsmäßige Freiheit (First Amendment) ein Schutzschild. Trotz der gesetzlichen Verbote, wie dem Take It Down Act, fehlt es an wirksamen Mechanismen, um Plattformen für die Missbrauchsnutzung zu verantworten. Ein möglicher Ansatz wäre, nachzuweisen, dass xAI die Risiken ignoriert hat – etwa durch die Abschwächung von Sicherheitsmaßnahmen, wie Berichte nahelegen. Doch solche Fälle sind juristisch riskant und komplex. Internationale Reaktionen sind dagegen aktiver: Indonesien, Malaysia, Großbritannien, die EU, Frankreich, Irland, Indien und Brasilien haben bereits Maßnahmen zur Beschränkung des Zugangs zu Grok ergriffen. In den USA bleibt die Regulierung jedoch weitgehend aus. Experten wie Langford betonen, dass der zentrale Punkt nicht die technische Fähigkeit, sondern die Verantwortung der Plattformen ist. „Die Frage ist nicht, ob es möglich ist, solche Inhalte zu erstellen, sondern was X wusste, was es tat oder unterließ, und was es jetzt tut“, sagt er. Die laufenden Ermittlungen könnten die Grenzen der KI-Regulierung neu definieren – und die Antwort könnte die Zukunft der digitalen Verantwortung entscheidend prägen.

Related Links

Tiefgefälschte Pornografie: Rechtslücke bei Plattformen wie ClothOff und Grok | Headlines | HyperAI