HyperAIHyperAI
il y a 11 jours

Les masques d'attention aident les attaques adverses à contourner les détecteurs de sécurité

Yunfan Shi
Les masques d'attention aident les attaques adverses à contourner les détecteurs de sécurité
Résumé

Malgré les récents progrès des méthodes d'attaque adverses, les approches actuelles contre les superviseurs XAI restent détectables et lentes. Dans cet article, nous proposons un cadre adaptatif pour la génération de masques d'attention, permettant d'effectuer des attaques adverses par PGD sur la classification d'images de manière discrète, explicable et efficace, même en présence de superviseurs XAI. Plus précisément, nous utilisons un mélange mutatif XAI ainsi qu'un modèle multitâche auto-supervisé X-UNet pour générer les masques d'attention, afin de guider l'attaque PGD. Des expériences menées sur MNIST (MLP) et CIFAR-10 (AlexNet) montrent que notre système surpasser les méthodes de référence PGD, Sparsefool et SINIFGSM de pointe en matière d'équilibre entre discrétion, efficacité et explicable, ce qui est crucial pour tromper efficacement les classificateurs protégés par les défenses de pointe.