HyperAIHyperAI

Command Palette

Search for a command to run...

Aufmerksamkeitsmasken unterstützen adversarische Angriffe, um Sicherheitsdetektoren zu umgehen

Yunfan Shi

Zusammenfassung

Trotz neuer Forschungsergebnisse im Bereich adversarialer Angriffsmethoden bleiben aktuelle Ansätze gegen XAI-Monitore weiterhin erkennbar und langsam. In diesem Paper präsentieren wir einen adaptiven Rahmen für die Generierung von Aufmerksamkeitsmasken, um stille, erklärbare und effiziente PGD-Bildklassifikationsangriffe unter XAI-Monitoren zu ermöglichen. Konkret nutzen wir eine mutierte XAI-Mischung sowie ein multitask-orientiertes selbstüberwachtes X-UNet zur Generierung von Aufmerksamkeitsmasken, um den PGD-Angriff zu leiten. Experimente an MNIST (MLP) und CIFAR-10 (AlexNet) zeigen, dass unser System Benchmark-PGD, Sparsefool und aktuelle SOTA-Verfahren wie SINIFGSM in der Balance zwischen Unauffälligkeit, Effizienz und Erklärbarkeit übertrifft – Aspekte, die entscheidend dafür sind, state-of-the-art geschützte Klassifikatoren effektiv zu täuschen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp