HyperAIHyperAI

Command Palette

Search for a command to run...

FOA-Attack, Ein Framework Für Gezielte, Migrationsbasierte Angriffe.

Datum

vor 2 Monaten

Organisation

Mohamed bin Zayed Universität für Künstliche Intelligenz

Paper-URL

2505.21494

Der Feature Optimal Alignment Attack (FOA-Attack) wurde im Mai 2025 von einem Forschungsteam der Nanyang Technological University, der Muhammad Bin Zayed University for Artificial Intelligence und weiterer Universitäten und Institutionen gemeinsam vorgeschlagen. Die entsprechenden Forschungsergebnisse wurden in der Publikation „…“ veröffentlicht.Adversarial Attacks against Closed-Source MLLMs via Feature Optimal AlignmentDer Vorschlag wurde von NeurIPS 2025 angenommen.

FOA-Attack ist eine zielgerichtete, übertragbare Methode für adversariellen Angriffe, die auf optimaler Merkmalsausrichtung basiert. Auf globaler Ebene verwendet dieses Paradigma einen globalen Merkmalsverlust basierend auf Kosinusähnlichkeit, um die grobkörnigen Merkmale des adversariellen Beispiels mit denen der Zielprobe abzugleichen. Auf lokaler Ebene nutzt dieses Paradigma die umfangreichen lokalen Repräsentationen des Transformers und Clustering-Verfahren, um kompakte lokale Muster zu extrahieren und redundante lokale Merkmale zu reduzieren. Umfangreiche Experimente belegen, dass FOA-Attack die modernsten zielgerichteten adversariellen Angriffsmethoden übertrifft und eine überlegene Übertragbarkeit sowohl auf Open-Source- als auch auf proprietäre MLLMs (Multi-Learning Learning Models) erreicht.

KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp