Qualitätsunabhängige Deepfake-Erkennung mit intra-modellbasiertem kooperativem Lernen

Deepfake hat in letzter Zeit eine Vielzahl gesellschaftlicher Bedenken hervorgerufen, insbesondere hinsichtlich der potenziellen Sicherheitsrisiken und der Verbreitung gefälschter Informationen. Zahlreiche Forschungsarbeiten zur Deepfake-Erkennung wurden unternommen. Dennoch bleibt die Erkennung von tiefen Qualitätsstufen sowie die gleichzeitige Detektion verschiedener Deepfake-Qualitäten nach wie vor eine erhebliche Herausforderung. Die meisten state-of-the-art (SOTA)-Ansätze sind durch den Einsatz eines einzigen spezifischen Modells zur Erkennung einer bestimmten Deepfake-Videoqualität begrenzt. Bei der Konstruktion mehrerer Modelle unter Verwendung vorheriger Informationen über die Videoqualität entstehen erhebliche rechnerische Kosten sowie Overhead in Bezug auf Modelle und Trainingsdaten. Zudem ist eine derartige Strategie nicht skalierbar und praktisch nicht einsetzbar in realen Anwendungsszenarien. In dieser Arbeit präsentieren wir einen universellen intra-modellbasierten kooperativen Lernrahmen, der eine effektive und gleichzeitige Erkennung verschiedener Deepfake-Qualitäten ermöglicht. Unser Ansatz ist somit eine qualitätsunabhängige Methode zur Deepfake-Erkennung, die wir QAD (Quality-Agnostic Deepfake Detection) nennen. Insbesondere maximieren wir unter Ausnutzung des oberen Schrankenwerts des allgemeinen Fehlervoraussetzungsfehlers die Abhängigkeit zwischen den Zwischendarstellungen von Bildern unterschiedlicher Qualitätsstufen mittels des Hilbert-Schmidt Independence Criterion (HSIC). Zusätzlich wurde ein Adversarial Weight Perturbation-Modul sorgfältig entworfen, um die Robustheit des Modells gegenüber Bildverzerrungen zu erhöhen und gleichzeitig die Gesamtleistung des Modells zu steigern. Umfassende Experimente an sieben gängigen Deepfake-Datensätzen belegen die Überlegenheit unseres QAD-Modells gegenüber vorherigen SOTA-Verfahren.