HyperAIHyperAI

Command Palette

Search for a command to run...

Gegnerische Reinigung

Adversarial Purification ist eine Methode der adversären Verteidigung, die generative Modelle nutzt, um adversäre Störungen aus Eingabedaten zu entfernen und den ursprünglichen, sauberen Zustand der Daten wiederherzustellen. Ihr primäres Ziel ist es, die Robustheit und Sicherheit von Modellen zu verbessern, um deren präzise Vorhersageleistung auch bei böswilligen Angriffen zu gewährleisten. Diese Methode hat erhebliche Anwendungspotenzial, um tiefes Lernsystem vor Angriffen mit adversären Beispielen zu schützen.

Keine Daten
Keine Benchmark-Daten für diese Aufgabe verfügbar