Command Palette
Search for a command to run...
Aufmerksamkeitsmasken unterstützen adversarische Angriffe, um Sicherheitsdetektoren zu umgehen
Aufmerksamkeitsmasken unterstützen adversarische Angriffe, um Sicherheitsdetektoren zu umgehen
Yunfan Shi
Zusammenfassung
Trotz neuer Forschungsergebnisse im Bereich adversarialer Angriffsmethoden bleiben aktuelle Ansätze gegen XAI-Monitore weiterhin erkennbar und langsam. In diesem Paper präsentieren wir einen adaptiven Rahmen für die Generierung von Aufmerksamkeitsmasken, um stille, erklärbare und effiziente PGD-Bildklassifikationsangriffe unter XAI-Monitoren zu ermöglichen. Konkret nutzen wir eine mutierte XAI-Mischung sowie ein multitask-orientiertes selbstüberwachtes X-UNet zur Generierung von Aufmerksamkeitsmasken, um den PGD-Angriff zu leiten. Experimente an MNIST (MLP) und CIFAR-10 (AlexNet) zeigen, dass unser System Benchmark-PGD, Sparsefool und aktuelle SOTA-Verfahren wie SINIFGSM in der Balance zwischen Unauffälligkeit, Effizienz und Erklärbarkeit übertrifft – Aspekte, die entscheidend dafür sind, state-of-the-art geschützte Klassifikatoren effektiv zu täuschen.