Command Palette
Search for a command to run...
Gegnerische Reinigung
Adversarial Purification ist eine Methode der adversären Verteidigung, die generative Modelle nutzt, um adversäre Störungen aus Eingabedaten zu entfernen und den ursprünglichen, sauberen Zustand der Daten wiederherzustellen. Ihr primäres Ziel ist es, die Robustheit und Sicherheit von Modellen zu verbessern, um deren präzise Vorhersageleistung auch bei böswilligen Angriffen zu gewährleisten. Diese Methode hat erhebliche Anwendungspotenzial, um tiefes Lernsystem vor Angriffen mit adversären Beispielen zu schützen.