HyperAI

Apprentissage Automatique Contradictoire (AML)

L'apprentissage automatique contradictoire est une méthode d'apprentissage automatique qui vise à tromper les modèles d'apprentissage automatique en fournissant des entrées trompeuses. Il comprend donc la génération et la détection d’exemples contradictoires, qui sont des entrées créées spécifiquement pour tromper un classificateur. De telles attaques, connues sous le nom d’apprentissage automatique contradictoire, ont été largement explorées dans des domaines tels que la classification d’images et la détection de spam.
L’apprentissage automatique contradictoire a été étudié de manière plus approfondie dans le domaine de la reconnaissance d’images, où les images sont modifiées pour amener un classificateur à produire des prédictions incorrectes.

La menace des attaques adverses dans l'apprentissage automatique

Alors que l’apprentissage automatique devient rapidement essentiel aux propositions de valeur des organisations, le besoin des organisations de protéger l’apprentissage automatique augmente également rapidement. Par conséquent, l’apprentissage automatique contradictoire devient un domaine important dans l’industrie du logiciel.

Comment fonctionnent les attaques adverses contre les systèmes d'IA

Il existe une variété d’attaques adverses différentes qui peuvent être utilisées contre les systèmes d’apprentissage automatique. Bon nombre de ces travaux ciblent les systèmes d’apprentissage profond et les modèles d’apprentissage automatique traditionnels tels que les machines à vecteurs de support (SVM) et la régression linéaire. La plupart des attaques adverses sont généralement conçues pour dégrader les performances d’un classificateur sur une tâche spécifique, essayant essentiellement de « tromper » l’algorithme d’apprentissage automatique. L’apprentissage automatique contradictoire est le domaine qui étudie une classe d’attaques conçues pour dégrader les performances d’un classificateur sur une tâche spécifique. Les attaques adverses peuvent être principalement divisées en plusieurs catégories : attaques par empoisonnement, attaques par évasion et attaques par extraction de modèles.  

Références

【1】https://viso.ai/deep-learning/adversarial-machine-learning/