HyperAIHyperAI
il y a 18 jours

Les exemples adverses améliorent la reconnaissance d'images

Cihang Xie, Mingxing Tan, Boqing Gong, Jiang Wang, Alan Yuille, Quoc V. Le
Les exemples adverses améliorent la reconnaissance d'images
Résumé

Les exemples adverses sont généralement perçus comme une menace pour les ConvNets. Dans cet article, nous proposons une perspective opposée : les exemples adverses peuvent être exploités pour améliorer les modèles de reconnaissance d’images, à condition de les intégrer de manière appropriée. Nous introduisons AdvProp, une méthode renforcée d’entraînement adversaire qui traite les exemples adverses comme des données supplémentaires, afin de prévenir le surajustement. La clé de notre approche réside dans l’utilisation d’une normalisation par lots auxiliaire distincte pour les exemples adverses, qui présentent une distribution sous-jacente différente de celle des exemples normaux.Nous démontrons que AdvProp améliore une large gamme de modèles sur diverses tâches de reconnaissance d’images, et que ses performances s’améliorent particulièrement lorsque les modèles sont plus grands. Par exemple, en appliquant AdvProp au dernier modèle EfficientNet-B7 [28] sur ImageNet, nous obtenons des améliorations significatives : +0,7 % sur ImageNet, +6,5 % sur ImageNet-C, +7,0 % sur ImageNet-A et +4,8 % sur Stylized-ImageNet. Avec une version améliorée d’EfficientNet-B8, notre méthode atteint une précision top-1 de 85,5 % sur ImageNet, soit l’état de l’art actuel, sans recourir à des données supplémentaires. Ce résultat dépasse même celui du meilleur modèle présenté dans [20], qui a été entraîné sur 3,5 milliards d’images Instagram (~3000 fois plus que ImageNet) et avec environ 9,4 fois plus de paramètres. Les modèles sont disponibles à l’adresse suivante : https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet.

Les exemples adverses améliorent la reconnaissance d'images | Articles de recherche récents | HyperAI