HyperAIHyperAI

Command Palette

Search for a command to run...

Sicherheitsvergleichsmethode: Tief Ausgerichtete Visuelle Sicherheitshinweise

Datum

vor 9 Stunden

Paper-URL

2506.09353

Deep Aligned Visual Safety Prompt (DAVSP) wurde im November 2025 von einem Forschungsteam der Tsinghua-Universität vorgeschlagen, und die entsprechenden Forschungsergebnisse wurden in der Arbeit „DAVSP: Sicherheitsausrichtung für große Bild-Sprach-Modelle durch tief ausgerichtete visuelle Sicherheitshinweise„Es wurde von AAAI 2026 akzeptiert.“

DAVSP ist eine neuartige, sichere Ausrichtungsmethode für großskalige Spracherkennungsmodelle (LVLMs). Sie verbessert effektiv die Widerstandsfähigkeit von LVLMs gegenüber bösartigen Anfragen und erhält gleichzeitig deren Praktikabilität für harmlose Anfragen. Die Methode konstruiert einen trainierbaren Padding-Bereich um das Eingabebild als visuelles Sicherheitsmerkmal. Dadurch bleiben die ursprünglichen visuellen Merkmale erhalten und der durch Pixelstörungen verursachte Leistungsengpass wird beseitigt. Dies führt zu einem Paradigmenwechsel durch visuelle Sicherheitsmerkmale (VSP). Die Forschung schlägt außerdem eine neuartige Trainingsstrategie namens Deep Alignment (DA) vor. Ausgehend von der Beobachtung, dass LVLMs schädliche Informationen in ihrem Aktivierungsraum kodieren, konstruieren die Forscher einen schädlichen Vektor. Dieser erfasst die semantische Richtung in der internen Repräsentation des Modells und unterscheidet so zwischen bösartigen und harmlosen Anfragen.

DAVSP-Übersicht

KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp