HyperAIHyperAI
il y a 11 jours

Amélioration du compromis précision-robustesse des classifieurs par lissage adaptatif

Yatong Bai, Brendon G. Anderson, Aerin Kim, Somayeh Sojoudi
Amélioration du compromis précision-robustesse des classifieurs par lissage adaptatif
Résumé

Bien que des recherches antérieures aient proposé une grande variété de méthodes visant à construire des classificateurs neuronaux résistants aux attaques adverses, les praticiens restent réticents à les adopter en raison des pertes inacceptables qu’elles entraînent sur la précision sur les données propres (clean accuracy). Ce papier atténue de manière significative ce compromis entre précision et robustesse en combinant les probabilités de sortie d’un classificateur standard et d’un classificateur robuste, où le réseau standard est optimisé pour la précision sur les données propres, mais n’est généralement pas robuste. Nous montrons que la différence de confiance du classificateur de base robuste entre les exemples corrects et incorrects constitue la clé de cette amélioration. En plus de fournir des intuitions et des preuves empiriques, nous certifions théoriquement la robustesse du classificateur combiné sous des hypothèses réalistes. En outre, nous adaptons un détecteur d’entrées adverses à un réseau de combinaison qui ajuste de manière adaptative le mélange des deux modèles de base, réduisant ainsi davantage la pénalité sur la précision liée à l’obtention de robustesse. La méthode flexible proposée, appelée « lissage adaptatif » (adaptive smoothing), peut être combinée avec des méthodes existantes — voire futures — visant à améliorer la précision sur les données propres, la robustesse ou la détection des attaques adverses. Notre évaluation expérimentale prend en compte des méthodes d’attaque puissantes, notamment AutoAttack et les attaques adaptatives. Sur le jeu de données CIFAR-100, notre méthode atteint une précision propre de 85,21 % tout en maintenant une précision de 38,72 % face à une attaque AutoAttack $\ell_\infty$ ($\varepsilon = 8/255$), devenant ainsi la deuxième méthode la plus robuste sur la benchmark RobustBench CIFAR-100 au moment de la soumission, tout en améliorant la précision propre de dix points de pourcentage par rapport à tous les modèles listés. Le code implémentant notre méthode est disponible à l’adresse suivante : https://github.com/Bai-YT/AdaptiveSmoothing.

Amélioration du compromis précision-robustesse des classifieurs par lissage adaptatif | Articles de recherche récents | HyperAI