Command Palette
Search for a command to run...
Texte adversaire
Le texte adversaire fait référence à des séquences de texte conçues spécifiquement pour influencer les prédictions des modèles de langage. L'objectif principal est de révéler les vulnérabilités et les faiblesses potentielles du modèle en perturbant son fonctionnement normal. L'étude des différentes méthodes d'attaque par le texte adversaire aide à construire des mécanismes de défense efficaces, détecter les entrées malveillantes et ainsi renforcer la sécurité et la robustesse des grands modèles de langage.