HyperAIHyperAI

Command Palette

Search for a command to run...

Britannien kooperiert mit Microsoft zur Entwicklung von Deepfake-Erkennung

Das Vereinigte Königreich wird gemeinsam mit Microsoft, akademischen Experten und Fachleuten an der Entwicklung eines Systems zur Erkennung von Deepfakes arbeiten, wie die Regierung am Donnerstag bekanntgab. Ziel ist es, Standards zu schaffen, um schädliche und irreführende künstliche Intelligenz-generierte Inhalte im Internet zu bekämpfen. Die Initiative ist Teil einer umfassenderen Strategie, die darauf abzielt, die Auswirkungen von KI-basierten Manipulationen auf die öffentliche Debatte, die Demokratie und die Sicherheit zu minimieren. Die Zusammenarbeit soll insbesondere darauf abzielen, tiefgreifende Veränderungen in Videos, Bildern und Audiodateien zu identifizieren, die durch KI-Technologien wie generative Adversarial Networks (GANs) erstellt wurden. Die Regierung betont, dass die neue Plattform nicht nur technisch präzise sein, sondern auch skalierbar und schnell genug sein muss, um in Echtzeit auf gefährliche Inhalte zu reagieren. Microsoft wird dabei eine zentrale Rolle spielen, indem es seine bestehenden KI-Infrastrukturen und Forschungsergebnisse aus dem Bereich der Medienintegrität einbringt. Dazu gehören Tools wie Microsoft’s Video Authenticator, das bereits in der Lage ist, digitale Manipulationen in Videos zu erkennen, sowie die „AI for Accessibility“-Initiative, die auf ethische KI-Entwicklung setzt. Die Entwicklung wird durch eine Reihe von Forschungsinstitutionen unterstützt, darunter die University of Oxford und das Alan Turing Institute, die an Algorithmen arbeiten, die feinste Spuren von KI-Generierung aufspüren können – etwa unregelmäßige Lichtverhältnisse, ungenaue Augenbewegungen oder inkonsistente Texturmustern. Die Daten, die für die Trainingsmodelle benötigt werden, sollen aus einer Vielzahl von Quellen stammen, darunter öffentlich zugängliche Inhalte, die bereits als manipuliert identifiziert wurden, sowie synthetisch erzeugte Testmaterialien. Die Regierung betont, dass die Plattform nicht nur von Behörden, sondern auch von Medienunternehmen, sozialen Netzwerken und Zivilgesellschaftsorganisationen genutzt werden soll. Ziel ist es, eine gemeinsame Sprache und gemeinsame Standards für die Erkennung und Kennzeichnung von Deepfakes zu schaffen. Zudem wird die Initiative mit internationalen Partnern wie der EU und den USA koordiniert, um globale Normen für digitale Integrität zu fördern. Experten begrüßen die Initiative als wichtigen Schritt, um die wachsende Bedrohung durch KI-basierte Desinformation zu bekämpfen. „Die Herausforderung der Deepfakes ist nicht mehr nur technischer Natur, sondern hat tiefgreifende gesellschaftliche und politische Implikationen“, sagt Dr. Lena Müller, KI-Experte am Alan Turing Institute. „Die Zusammenarbeit zwischen Staat, Industrie und Wissenschaft ist entscheidend, um vertrauenswürdige Mechanismen zu schaffen, die vor Verunsicherung und Manipulation schützen.“ Microsoft hat bereits in mehreren Ländern Pilotprojekte zur Medienintegrität durchgeführt und betont, dass die neue Partnerschaft eine Möglichkeit sei, „die Verantwortung für KI-Entwicklung gemeinsam zu tragen“. Die Regierung plant, die Ergebnisse der Zusammenarbeit bis Ende 2025 vorzustellen und möglicherweise eine gesetzliche Grundlage für die Verwendung solcher Systeme zu schaffen. Die Initiative könnte als Vorbild für andere Länder dienen, die ähnliche Herausforderungen im Bereich der digitalen Sicherheit bewältigen müssen.

Verwandte Links