HyperAIHyperAI

Command Palette

Search for a command to run...

Purification Adversaire

L'Adversarial Purification est une méthode de défense contre les attaques adverses qui utilise des modèles génératifs pour éliminer les perturbations adverses des données d'entrée, restaurant ainsi leur état original propre. Son objectif principal est d'améliorer la robustesse et la sécurité des modèles, garantissant qu'ils conservent une performance de prédiction précise même en présence d'attaques malveillantes. Cette méthode présente une valeur d'application importante pour protéger les systèmes d'apprentissage profond contre les attaques par échantillons adverses.

Aucune donnée
Aucune donnée de benchmark disponible pour cette tâche
Purification Adversaire | SOTA | HyperAI