Meta klagt gegen AI-App Crush AI wegen Werbung auf Plattformen
Meta hat eine Firma verklagt, die generative KI-Apps auf dessen Social-Media-Plattformen werben, mit denen Nutzer andere Menschen ohne deren Einwilligung entkleiden können. Die Klage gegen Joy Timeline wurde eingereicht, nachdem eine CBS News-Untersuchung im vergangenen Jahr Hunderte von Werbeanzeigen für solche digitalen Entkleidungs-Apps auf Metas Plattformen wie Facebook, Messenger, Instagram und Threads entdeckt hatte. In einer Erklärung betonte Meta, dass diese gerichtliche Aktion sowohl die Ernsthaftigkeit der Behandlung dieses Missbrauchs als auch den Wille des Unternehmens, seine Community vor solchen Praktiken zu schützen, unterstreicht. Meta wird weiterhin alle notwendigen Maßnahmen ergreifen, einschließlich gerichtlicher Schritte, um solche Missbräuche zu bekämpfen. Die Firma hat bereits mehrere dieser Anzeigen entfernt, die dazugehörigen Konten gelöscht und die URLs blockiert, die mit den Apps verbunden waren. Dennoch wird es immer schwieriger, die eigenen Richtlinien durchzusetzen, da explorative KI-Apps neue Methoden finden, die Erkennung zu umgehen. Joy Timeline HK, eine Firma aus Hongkong, wurde in der Klage beschuldigt, mehrfach versucht zu haben, Metas Anzeigenevaluationsprozess zu umgehen, um Werbeinserate für die KI-App Crush AI zu platzieren. Nach Angaben des Autors des Faked Up Newsletters, Alexios Mantzarlis, lieferten die Websites von Crush AI etwa 90% ihres Traffics über Facebook oder Instagram. Mantzarlis berichtete, dass Crush AI in den ersten beiden Wochen des Jahres 2025 mehr als 8.000 Anzeigen für ihre "KI-Entkleidungsdienste" auf Metas Plattformen geschaltet hatte. Viele dieser Konto-Adressaten trugen Namen wie "Eraser Annyones Clothes" gefolgt von verschiedenen Zahlen. Zudem existierte sogar eine Facebook-Seite, die den Service von Crush AI bewarb. Die Herausforderungen, die solche Apps mit sich bringen, sind nicht nur Meta bekannt. Andere Social-Media-Unternehmen wie X und TikTok ringen ebenfalls damit, wie sie KI-Tools moderieren können, die ihre Plattformen unsicher machen, insbesondere für Minderjährige. Forscher fanden heraus, dass Links zu KI-Entkleidungs-Apps 2024 auf Plattformen wie X und Reddit stark zugenommen haben. Auf YouTube wurden laut Berichten Millionen von Nutzern mit Anzeigen für solche Apps bedient. Im April 2024 veröffentlichte 404 Media eine ähnliche Untersuchung, in der es Tools zur Erstellung von nicht einvernehmlichen KI-Deepfakes auf Instagram entdeckte. Im Anschluss daran entfernten Apple und Google die in dem Bericht genannten Apps von ihren App-Marketplaces. Im August 2024 startete San Francisco sogar eine eigene Klage gegen 16 der häufigsten besuchten KI-Entkleidungs-Deepfake-Websites. Um diese Probleme anzugehen, hat Meta neue Technologien entwickelt, um Anzeigen für KI-Entkleidungs-Apps zu identifizieren, selbst wenn diese Anzeigen kein explizites Material enthalten. Das Unternehmen verwendet nun Match-Technologien, um Kopien dieser Anzeigen schneller zu finden, und hat die Liste der von seinen Systemen erkannten Begriffe, Phrasen und Emojis erweitert. Seit Beginn des Jahres 2025 hat Meta vier separate Netzwerke gestört, die solche Dienstleistungen bewarben. Darüber hinaus teilt Meta Informationen über KI-Entkleidungs-Apps durch das Tech Coalitions Lantern-Programm, eine gemeinsame Initiative zwischen Google, Meta, Snap und anderen Unternehmen, um den Online-Missbrauch von Kindern zu verhindern. Seit März hat Meta mehr als 3.800 einzigartige URLs mit diesem Netzwerk geteilt. Auf legislativem Gebiet unterstützt das Unternehmen Gesetzesvorschläge, die Eltern befähigen sollen, die App-Downloads ihrer Teenager zu überwachen. Meta unterstützte bereits den US Take It Down Act und arbeitet jetzt mit Gesetzgebern zusammen, um dessen Umsetzung voranzutreiben. Experten und Branchenvertreter sehen die Verbreitung solcher Apps als zunehmende Bedrohung für die Online-Sicherheit. Insbesondere die Nutzung dieser Apps zur Erpressung und Sextortion sowie die Gefahr, dass Kinder auf diese Inhalte stoßen, sind besorgniserregend. Der Einsatz von KI-Tools auf Social-Media-Plattformen bringt neue Herausforderungen in Bezug auf die Moderation und Sicherheit, und es ist klar, dass Unternehmen wie Meta und andere maßgeblich eingreifen müssen, um diese Missbräuche zu bekämpfen.