HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 7 jours

Attaques adversariales contre les MLLMs à source fermée par alignement optimal des caractéristiques

Xiaojun Jia Sensen Gao Simeng Qin Tianyu Pang Chao Du Yihao Huang Xinfeng Li Yiming Li Bo Li Yang Liu

Attaques adversariales contre les MLLMs à source fermée par alignement optimal des caractéristiques

Résumé

Les modèles de langage à grande échelle multimodaux (MLLM) restent vulnérables aux exemples adverses transférables. Bien que les méthodes existantes parviennent généralement à réaliser des attaques ciblées en alignant les caractéristiques globales — telles que le jeton [CLS] de CLIP — entre les échantillons adverses et les échantillons cibles, elles négligent souvent l’information locale riche codée dans les jetons de patch. Cela entraîne un alignement sous-optimal et une transférabilité limitée, en particulier pour les modèles à code fermé. Pour remédier à cette limitation, nous proposons une méthode d’attaque adverses transférables ciblées fondée sur un alignement optimal des caractéristiques, appelée FOA-Attack, afin d’améliorer la capacité de transfert des attaques adverses. Plus précisément, au niveau global, nous introduisons une perte basée sur la similarité cosinusienne pour aligner les caractéristiques grossières des échantillons adverses avec celles des échantillons cibles. Au niveau local, compte tenu de la richesse des représentations locales au sein des Transformers, nous exploitons des techniques de clustering afin d’extraire des motifs locaux compacts, afin de réduire les caractéristiques locales redondantes. Nous formulons ensuite l’alignement des caractéristiques locales entre les échantillons adverses et cibles comme un problème de transport optimal (OT), et proposons une perte de transport optimal basée sur le clustering local pour affiner l’alignement des caractéristiques à fine échelle. En outre, nous proposons une stratégie dynamique de pondération des modèles en ensemble, permettant d’ajuster de manière adaptative l’influence de plusieurs modèles lors de la génération des exemples adverses, améliorant ainsi davantage la transférabilité. Des expériences étendues menées sur divers modèles démontrent l’efficacité supérieure de la méthode proposée, qui surpasse les approches de pointe, en particulier dans le transfert vers des MLLM à code fermé.

Dépôts de code

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Attaques adversariales contre les MLLMs à source fermée par alignement optimal des caractéristiques | Articles de recherche | HyperAI