Command Palette
Search for a command to run...
empoisonnement du modèle
L'empoisonnement de modèle fait référence à l'action d'un attaquant qui injecte des échantillons malveillants dans les données d'entraînement, provoquant ainsi un écart du modèle d'apprentissage automatique par rapport à son cours normal lors de l'entraînement. Cela affecte la performance et la précision des décisions du modèle. L'objectif est de faire produire au modèle des sorties incorrectes pour des tâches spécifiques ou de réduire sa capacité de généralisation globale. La valeur d'application de l'empoisonnement de modèle réside dans l'amélioration de la sécurité du système en recherchant et en prévenant ces attaques, ce qui augmente la robustesse et la fiabilité du modèle.