HyperAIHyperAI

Attaque adversaire

Les attaques adversaires sont une technique visant à identifier de petites perturbations capables de modifier les prédictions des modèles d'apprentissage automatique. Ces perturbations sont presque imperceptibles à l'œil humain, mais peuvent influencer efficacement la sortie du modèle, révélant ainsi ses vulnérabilités et les risques potentiels de sécurité. Cette approche possède une valeur de recherche et d'application importante.

Attaque adversaire | SOTA | HyperAI