HyperAI

Adversarial Attack

Les attaques adversaires sont une technique visant à identifier de petites perturbations capables de modifier les prédictions des modèles d'apprentissage automatique. Ces perturbations sont presque imperceptibles à l'œil humain, mais peuvent influencer efficacement la sortie du modèle, révélant ainsi ses vulnérabilités et les risques potentiels de sécurité. Cette approche possède une valeur de recherche et d'application importante.