Command Palette
Search for a command to run...
empoisonnement des données
Le poisonnement des données est une méthode d'attaque adverse qui consiste à manipuler le jeu de données d'entraînement afin de contrôler le comportement de prédiction du modèle entraîné, provoquant ainsi la mauvaise classification d'échantillons malveillants et atteignant l'objectif de l'attaquant. Ce type d'attaque représente une menace sérieuse pour la sécurité et la fiabilité des systèmes d'apprentissage automatique, et la recherche de ses mécanismes peut aider à renforcer les capacités de défense du modèle.