HyperAIHyperAI

Command Palette

Search for a command to run...

AI-Generierter Betrug: Viraler Reddit-Beitrag über Lieferdienst entpuppt sich als Fälschung

Ein viral gewordener Reddit-Beitrag, der angeblich von einem Whistleblower einer Lebensmittel-Lieferdienst-App stammte und schwerwiegende Vorwürfe gegen Unternehmenspraktiken erhob, hat sich als gefälscht herausgestellt – und zwar als Produkt künstlicher Intelligenz. Der Nutzer behauptete, ein ehemaliger Mitarbeiter eines großen Lieferdienstes zu sein, der in einer einsamen Nacht im Bibliotheks-Wi-Fi seine Geschichte über die Ausbeutung von Fahrern und Nutzern verfasst habe. Unter anderem beschrieb er eine angebliche „Verzweiflungsskala“, die das Unternehmen mittels KI zur Steuerung von Fahrerentgelten und -einsatz nutzen würde. Die Geschichte klang überzeugend: Sie erwähnte konkrete Details, einen angeblichen internen 18-seitigen Bericht und ein Foto des Mitarbeiterausweises – allesamt fiktiv. Obwohl DoorDash tatsächlich wegen der Unterschlagung von Trinkgeldern vor Gericht stand und eine Zahlung von 16,75 Millionen US-Dollar leistete, war dieser Fall nicht der Ursprung der angeblichen Enthüllung. Der Beitrag sorgte für großes Aufsehen: Er erhielt über 87.000 Upvotes auf Reddit und wurde auf Plattformen wie X (ehemals Twitter) weit verbreitet – mit mehr als 36,8 Millionen Impressionen und 208.000 Likes. Journalist Casey Newton von Platformer kontaktierte den Nutzer, der sich über Signal meldete und Dokumente und ein Foto des Ausweises zur Verfügung stellte. Doch als Newton versuchte, die Authentizität zu überprüfen, entdeckte er Hinweise auf eine KI-generierte Fälschung. Mittels Google’s Gemini und der SynthID-Wasserzeichentechnologie konnte er nachweisen, dass das Bild mit einem KI-Tool erstellt wurde – ein Beweis, der auch nach Bearbeitung wie Beschneiden oder Komprimierung bestehen blieb. Experten wie Max Spero von Pangram Labs, einem Unternehmen, das Tools zur Erkennung von KI-generiertem Text entwickelt, warnen vor der zunehmenden Qualität und Verbreitung solcher Täuschungen. „AI-Schleim im Internet ist deutlich schlimmer geworden, und das liegt nicht nur an LLMs, sondern auch an der kommerziellen Nutzung solcher Technologien“, sagte Spero. Firmen zahlten nun sogar Millionen, um künstlich generierte Posts mit Markennamen zu verbreiten – sogenannte „organische Engagement“-Kampagnen, die in Wirklichkeit nur manipulierte Inhalte sind. Obwohl Tools wie die von Pangram helfen, Texte zu analysieren, sind sie bei Bild- und Videoinhalten oft unzuverlässig. Selbst wenn ein Post später als gefälscht entlarvt wird, ist der Schaden bereits angerichtet – die Falschinformation hat sich bereits viral verbreitet. Dieser Fall ist kein Einzelfall: In derselben Woche gab es mehrere ähnliche „viral AI-Hoaxes“ über Lieferdienste auf Reddit, was zeigt, wie leicht KI-generierte Inhalte in die öffentliche Debatte eindringen können. Die Grenze zwischen echter Enthüllung und künstlichem Narrativ verschwimmt zunehmend – und die Aufgabe, Wahrheit im digitalen Raum zu erkennen, wird für Journalisten, Nutzer und Plattformen immer schwieriger. Die digitale Wahrheitsfindung erfordert nun nicht nur kritische Distanz, sondern auch technische Kenntnisse, um die Spuren künstlicher Fälschungen aufzuspüren.

Verwandte Links

AI-Generierter Betrug: Viraler Reddit-Beitrag über Lieferdienst entpuppt sich als Fälschung | Aktuelle Beiträge | HyperAI