HyperAI
Back to Headlines

Nouvelle Technique RisingAttacK : Manipuler ce que l'IA "Voir" avec Précision et Discrétion

il y a 3 jours

Nouvelle Technique d'Attaque Adversariale : RisingAttacK Les chercheurs de l'Université de Caroline du Nord à Raleigh ont développé une nouvelle méthode pour attaquer les systèmes de vision basés sur l'intelligence artificielle (IA), permettant de contrôler ce que l'IA "voit". Baptisée RisingAttacK, cette technique peut manipuler les modèles de vision de l'IA les plus couramment utilisés, ce qui soulève des préoccupations notables pour la sécurité et la santé humaine. Contexte des Attaques Adversariales Les attaques adversariales consistent à altérer les données saisies par un système d'IA pour influencer sa perception ou son interprétation. Par exemple, une manipulation pourrait empêcher un véhicule autonome de détecter un piéton ou un arrêt. De même, un hacker pourrait installer du code sur une machine à rayons X pour que le diagnostic d'un modèle d'IA soit inexact. Tianfu Wu, co-auteur principal de l'étude et professeur adjoint de génie électrique et informatique à l'Université de Caroline du Nord, explique : "Nous avons cherché à trouver un moyen efficace de pirater les systèmes de vision de l'IA car ils sont souvent utilisés dans des contextes touchant la santé et la sécurité humaines, des véhicules autonomes aux technologies médicales en passant par les applications de sécurité." Mécanisme de RisingAttacK RisingAttacK se compose d'une série d'opérations visant à minimiser les modifications nécessaires à l'image pour réaliser l'attaque. Voici les étapes principales : Identification des Caractéristiques Visuelles : RisingAttacK analyse l'image pour identifier toutes les caractéristiques visuelles présentes. Détermination des Caractéristiques Critiques : Le programme évalue quelles caractéristiques sont les plus importantes pour atteindre l'objectif de l'attaque. Par exemple, si le but est de faire en sorte que l'IA ne voie pas une voiture, il détermine les éléments visuels essentiels pour que l'IA identifie une voiture. Calcul de la Sensibilité : RisingAttacK mesure la sensibilité du système d'IA aux modifications des données, et plus précisément, sa sensibilité aux changements des caractéristiques clés. Apport de Changements Ciblés : Ensuite, la technique apporte des modifications légères et très ciblées aux caractéristiques clés, ce qui permet de réussir l'attaque sans que les yeux humains puissent remarquer les différences. Pour illustrer, Wu précise : "Le résultat final est que deux images peuvent apparaître identiques à l'œil humain, et nous pourrions voir clairement une voiture dans les deux images. Mais grâce à RisingAttacK, l'IA verra la voiture dans la première image mais pas dans la deuxième." Tests et Efficacité Les chercheurs ont testé RisingAttacK sur les quatre programmes de vision de l'IA les plus couramment utilisés : ResNet-50, DenseNet-121, ViTB et DEiT-B. Les résultats montrent que la technique est efficace pour manipuler chacun de ces programmes. De plus, les impacts de RisingAttacK ne se limitent pas aux seules cibles de base de l'IA, comme les voitures ou les piétons. La technique peut influencer l'IA pour ne pas détecter les 20 ou 30 objets principaux sur lesquels elle a été entraînée. Cela inclut des éléments tels que les cyclistes, les panneaux d'arrêt, etc., ce qui rend l'attaque particulièrement menaçante en environnements urbains ou médicaux. Prochaines Étapes L'équipe de recherche continue d'étudier l'efficacité de RisingAttacK sur d'autres types de systèmes d'IA, tels que les grands modèles de langage. Wu ajoute : "À l'avenir, notre objectif est de développer des techniques capables de défendre efficacement contre de telles attaques, car la détection et la correction des vulnérabilités sont des étapes cruciales pour renforcer la sécurité de ces systèmes." Importance et Implications La découverte et la démonstration de RisingAttacK sont importantes car elles mettent en lumière les vulnérabilités critiques des systèmes de vision d'IA. Ces systèmes sont de plus en plus intégrés dans des applications vitales, et leur sécurité est therefore essentielle. L'identification de méthodes d'attaque comme RisingAttacK est un pas en avant significatif dans la compréhension des risques potentiels et dans le développement de mécanismes de protection. Évaluation de l'Événement par des Professionnels de l'Industrie La communauté scientifique et technologique s'accorde pour dire que la publication de travaux tels que ceux sur RisingAttacK est cruciale. Elle permet aux développeurs et aux chercheurs de prendre conscience des failles existantes et de concevoir des solutions de défense robustes. Une telle initiative contribue à renforcer la confiance dans les technologies d'IA en mettant en place des mesures de sécurité adéquates. Profil de l’Entreprise L'Université de Caroline du Nord à Raleigh est reconnue pour ses travaux de pointe en matière de génie électrique et informatique. Située dans la Triangle Rsearch Area, elle bénéficie d'une collaboration étroite avec l'industrie et d'un accès privilégié aux dernières avancées technologiques. Ce positionnement la rend particulièrement apte à mener des recherches sur la sécurité des systèmes d'IA. Conclusion La technique RisingAttacK souligne l'importance de la sécurité des systèmes de vision d'IA. En démontrant ses capacités, les chercheurs ont pris un pas de géant vers l'amélioration de la résilience et de la fiabilité de ces technologies, qui sont de plus en plus intégrées dans notre quotidien.

Related Links