HyperAIHyperAI

Command Palette

Search for a command to run...

L’IA facilite l’insertion de failles cachées dans les puces : une menace croissante pour la sécurité du matériel

Des outils d’intelligence artificielle couramment disponibles peuvent être utilisés par des hackers pour introduire discrètement des failles de sécurité dans les circuits intégrés, révèle une étude menée par l’École d’ingénieurs NYU Tandon. Ces découvertes mettent en garde contre la possibilité que l’IA soit armée pour compromettre la sécurité matérielle des systèmes informatiques. Dans une étude publiée dans le magazine IEEE Security & Privacy, une équipe de recherche de NYU Tandon a démontré que des modèles de langage comme ChatGPT peuvent aider à concevoir des « Troyens matériels » — des modifications malveillantes insidieuses dans le code de conception de puces — que même des débutants peuvent créer. Ces failles peuvent permettre à des attaquants de voler des informations sensibles, de désactiver des systèmes ou d’obtenir un accès non autorisé. Pour tester cette menace, les chercheurs ont organisé pendant deux ans une compétition intitulée « AI Hardware Attack Challenge », dans le cadre de CSAW, un événement annuel de cybersécurité organisé par le Centre de cybersécurité de NYU. Les équipes devaient utiliser l’IA générative pour insérer des vulnérabilités exploitable dans des conceptions open-source, notamment des processeurs RISC-V et des accélérateurs cryptographiques, puis démontrer leur efficacité. Selon Jason Blocklove, doctorant en génie électrique et informatique à NYU Tandon et auteur principal de l’étude, « les outils d’IA simplifient considérablement le processus d’insertion de ces vulnérabilités ». Certaines équipes ont automatisé entièrement la tâche, tandis que d’autres ont utilisé les modèles pour mieux comprendre les conceptions, repérer des points faibles et générer du code malveillant simple. Les meilleures performances ont été obtenues par des outils automatisés capables d’analyser le code, d’identifier des emplacements vulnérables, puis d’insérer des Troyens sans intervention humaine. Les failles générées incluaient des backdoors pour accéder à la mémoire, des mécanismes de fuite de clés de chiffrement, et des logiques capables de faire planter les systèmes sous des conditions spécifiques. Ce qui est le plus inquiétant, c’est que deux équipes composées d’étudiants en première année, avec peu de connaissances en conception de puces, ont réussi à créer des attaques de gravité moyenne à élevée, évaluées selon des normes standard. Bien que la plupart des modèles de langage incluent des mesures de sécurité, les participants ont facilement trouvé des moyens de les contourner. Une équipe a utilisé des formulations académiques pour masquer ses intentions, tandis que d’autres ont obtenu des réponses en langues moins courantes, évitant ainsi les filtres de contenu. La gravité de ces failles réside dans leur caractère permanent : contrairement aux bogues logiciels, qui peuvent être corrigés par mise à jour, les erreurs dans les puces fabriquées ne peuvent être réparées qu’en les remplaçant entièrement. « Une fois fabriquée, une puce ne peut pas être corrigée sans être remplacée », souligne Blocklove. « C’est pourquoi la sécurité matérielle est si cruciale : nous anticipons des menaces qui n’existent pas encore, mais qui pourraient avoir des conséquences catastrophiques. » Cette étude s’inscrit dans une série de travaux du même laboratoire, dont le projet « Chip Chat », qui démontrait que l’IA pouvait aider à concevoir un microprocesseur fonctionnel. Elle révèle le double usage de la technologie : elle peut à la fois démocratiser la conception de puces et faciliter de nouveaux types d’attaques. Les chercheurs insistent sur la nécessité d’améliorer les mécanismes de protection des modèles de langage, ainsi que le développement d’outils avancés de vérification et d’analyse de sécurité pour les conceptions matérielles. Ils préviennent également que les modèles open-source spécialisés, encore peu explorés, pourraient représenter une menace encore plus grande à l’avenir.

Liens associés

L’IA facilite l’insertion de failles cachées dans les puces : une menace croissante pour la sécurité du matériel | Articles tendance | HyperAI