Aufmerksamkeitsmasken unterstützen adversarische Angriffe, um Sicherheitsdetektoren zu umgehen

Trotz neuer Forschungsergebnisse im Bereich adversarialer Angriffsmethoden bleiben aktuelle Ansätze gegen XAI-Monitore weiterhin erkennbar und langsam. In diesem Paper präsentieren wir einen adaptiven Rahmen für die Generierung von Aufmerksamkeitsmasken, um stille, erklärbare und effiziente PGD-Bildklassifikationsangriffe unter XAI-Monitoren zu ermöglichen. Konkret nutzen wir eine mutierte XAI-Mischung sowie ein multitask-orientiertes selbstüberwachtes X-UNet zur Generierung von Aufmerksamkeitsmasken, um den PGD-Angriff zu leiten. Experimente an MNIST (MLP) und CIFAR-10 (AlexNet) zeigen, dass unser System Benchmark-PGD, Sparsefool und aktuelle SOTA-Verfahren wie SINIFGSM in der Balance zwischen Unauffälligkeit, Effizienz und Erklärbarkeit übertrifft – Aspekte, die entscheidend dafür sind, state-of-the-art geschützte Klassifikatoren effektiv zu täuschen.