X testet Bildlabel-System für manipulierte Medien
Elon Musk hat auf X (früher Twitter) eine neue Funktion angekündigt, die bearbeitete Bilder als „manipulierte Medien“ kennzeichnen soll – allerdings ohne klare Details. Ein kurzer Post von Musk mit dem Text „Edited visuals warning“ und die Wiederholung einer Ankündigung durch das anonyme Konto DogeDesigner, das oft als Proxy für neue X-Features dient, sind die einzigen Hinweise. Laut DogeDesigner soll die Funktion es „schwieriger machen, irreführende Clips oder Bilder von etablierten Medien zu verbreiten“ und sei neu bei X. Doch die genauen Kriterien bleiben unklar: Ob nur KI-generierte Bilder, auch traditionell bearbeitete Fotos (z. B. mit Photoshop) oder sogar einfache Retuschen erfasst werden, bleibt ungesagt. Auch die technische Umsetzung – etwa, ob KI-Tools wie Adobe’s Generative Fill oder Apple’s Creator Studio die Kennzeichnung auslösen – ist unbestimmt. Bereits unter dem Namen Twitter hatte das Unternehmen 2020 eine Politik eingeführt, die manipulierte Inhalte – unabhängig von KI – mit Warnhinweisen versehen sollte, etwa bei Verzögerung, Überstimmen oder Bearbeitung von Untertiteln. Doch diese Maßnahme wurde selten durchgesetzt, wie der jüngste Skandal mit nicht einvernehmlichen Deepfakes zeigte. Zudem nutzen auch Institutionen wie das Weiße Haus manipulierte Bilder, ohne dass dies thematisiert wird. Die Herausforderung bei solchen Kennzeichnungen ist groß: Meta stieß 2024 auf massive Fehler, als echte Fotos fälschlicherweise mit „Made with AI“ gekennzeichnet wurden – etwa, weil Adobe-Tools wie die Bildkomprimierung oder die KI-gestützte Objektfüllung die Algorithmen irregeführt hatten. Daraufhin änderte Meta die Bezeichnung in „AI info“, um Missverständnisse zu vermeiden. Der Standardansatz zur Beweisführung von Medienherkunft ist mittlerweile C2PA (Coalition for Content Provenance and Authenticity), an der unter anderem Microsoft, Adobe, BBC, OpenAI und Intel beteiligt sind. Auch Spotify und Deezer arbeiten an der Kennzeichnung von KI-Musik. Google Photos nutzt C2PA bereits, doch X ist bisher nicht Mitglied. Ob X die C2PA-Standards übernimmt, bleibt unklar. Musk hat weder die zugrundeliegende Technologie noch die Definition von „bearbeitet“ erklärt. Die Funktion könnte auch nur auf direkte Kameraaufnahmen beschränkt sein – oder umfassender. Ohne klare Regeln und einen transparenten Disputprozess droht die Kennzeichnung zu politisch instrumentalisiert zu werden, besonders in einem Umfeld wie X, das als Plattform für Propaganda dient. Die fehlende Klarheit wirft ernsthafte Fragen zur Glaubwürdigkeit und Fairness der Maßnahme auf. Industrieexperten warnen: Ohne fundierte, nachvollziehbare Kriterien riskiert X, Vertrauen zu verlieren – ähnlich wie Meta. Die Einführung solcher Tools erfordert nicht nur Technologie, sondern auch ethische und rechtliche Transparenz. X könnte hier eine Chance sehen, als führende Plattform für verantwortungsvolle Medienkennzeichnung zu agieren – vorausgesetzt, es legt klare, nachvollziehbare Regeln offen.
