HyperAI

Model Extraction

Les attaques d'extraction de modèle, également connues sous le nom d'attaques de vol de modèle, désignent le processus consistant à extraire les paramètres d'un modèle cible par une série de moyens techniques. L'objectif de l'attaquant est de voler et de répliquer un nouveau modèle qui imite étroitement les performances du modèle cible. Ce type d'attaque est significatif dans le domaine de l'apprentissage machine adverse, car il permet d'évaluer la sécurité et la robustesse des modèles, tout en posant des défis à la protection de la propriété intellectuelle des modèles.