HyperAIHyperAI
vor 15 Tagen

Aufmerksamkeitsmasken unterstützen adversarische Angriffe, um Sicherheitsdetektoren zu umgehen

Yunfan Shi
Aufmerksamkeitsmasken unterstützen adversarische Angriffe, um Sicherheitsdetektoren zu umgehen
Abstract

Trotz neuer Forschungsergebnisse im Bereich adversarialer Angriffsmethoden bleiben aktuelle Ansätze gegen XAI-Monitore weiterhin erkennbar und langsam. In diesem Paper präsentieren wir einen adaptiven Rahmen für die Generierung von Aufmerksamkeitsmasken, um stille, erklärbare und effiziente PGD-Bildklassifikationsangriffe unter XAI-Monitoren zu ermöglichen. Konkret nutzen wir eine mutierte XAI-Mischung sowie ein multitask-orientiertes selbstüberwachtes X-UNet zur Generierung von Aufmerksamkeitsmasken, um den PGD-Angriff zu leiten. Experimente an MNIST (MLP) und CIFAR-10 (AlexNet) zeigen, dass unser System Benchmark-PGD, Sparsefool und aktuelle SOTA-Verfahren wie SINIFGSM in der Balance zwischen Unauffälligkeit, Effizienz und Erklärbarkeit übertrifft – Aspekte, die entscheidend dafür sind, state-of-the-art geschützte Klassifikatoren effektiv zu täuschen.