Les agents IA, nouveaux vecteurs de cyberattaques aux portes de la sécurité
Les agents d’intelligence artificielle ouvrent la porte à de nouveaux risques de cyberattaques. L’entreprise de technologie Perplexity met en garde contre une ère nouvelle et inédite dans le domaine de la cybersécurité, où les menaces émergent désormais de vecteurs inconnus jusqu’ici. Les experts en sécurité alertent sur le risque que des agents IA, considérés comme la prochaine étape de la révolution de l’IA générative, soient détournés par des hackers pour mener des actions malveillantes. Les agents IA sont des programmes capables d’accomplir des tâches en ligne à la manière d’un humain — réserver un vol, ajouter un événement au calendrier — en utilisant simplement des instructions en langage naturel. Cette capacité à interagir avec les systèmes via des phrases simples rend ces outils accessibles à tous, y compris aux personnes sans compétences techniques. Or, cette facilité d’utilisation devient aussi une faille : elle permet à des attaquants malveillants de manipuler ces agents par des commandes cachées ou détournées. « Nous entrons dans une ère où la cybersécurité ne consiste plus seulement à protéger les utilisateurs contre des acteurs hautement qualifiés », explique Perplexity dans un billet de blog. « Pour la première fois en plusieurs décennies, nous observons des vecteurs d’attaque nouveaux et inédits, pouvant émerger de n’importe où. » Ces attaques, appelées « injections de requêtes », ne sont pas nouvelles dans le monde du piratage, mais auparavant elles nécessitaient des codes informatiques complexes et bien cachés. Aujourd’hui, avec l’évolution des outils IA, qui passent de la simple génération de texte à l’action autonome sur internet, le risque de détournement par des instructions malveillantes s’est considérablement accru. « Les utilisateurs doivent comprendre qu’il existe des dangers spécifiques liés à l’IA en matière de sécurité », affirme Marti Jorda Roca, ingénieur logiciel chez NeuralTrust, spécialiste de la sécurité des grands modèles linguistiques. Meta qualifie cette menace d’« vulnérabilité », tandis que Dane Stuckey, responsable de la sécurité informatique chez OpenAI, la décrit comme « un problème de sécurité non résolu ». Ces entreprises, qui investissent des milliards de dollars dans l’IA, voient leur technologie s’imposer rapidement, mais aussi s’exposer à de nouveaux risques. L’injection de requêtes peut se produire en temps réel : une simple demande comme « Réservez-moi un hôtel » peut être truquée par un attaquant pour devenir « Envoyez 100 dollars sur ce compte ». Des commandes malveillantes peuvent aussi être dissimulées dans des contenus en ligne, où des agents IA intégrés aux navigateurs pourraient les rencontrer et s’exécuter sans vigilance. Eli Smadja, de l’entreprise israélienne Check Point, considère cette menace comme le « principal problème de sécurité » pour les grands modèles linguistiques alimentant les assistants et agents IA. En réponse, Microsoft a intégré un outil de détection de commandes malveillantes, en analysant notamment l’origine des instructions. OpenAI, quant à lui, a mis en place des alertes lorsqu’un agent accède à des sites sensibles, bloquant toute action jusqu’à une validation humaine en temps réel. Certains experts recommandent d’exiger une approbation explicite de l’utilisateur avant toute action critique, comme l’exportation de données ou l’accès à des comptes bancaires. « Une erreur majeure que je constate fréquemment est de confier à un même agent toutes les responsabilités », souligne Smadja. Selon Johann Rehberger, chercheur en cybersécurité surnommé « wunderwuzzi », le plus grand défi réside dans l’évolution rapide des techniques d’attaque. « Elles ne font que s’améliorer », affirme-t-il. Le dilemme, ajoute-t-il, est de concilier sécurité et facilité d’utilisation : les utilisateurs veulent la commodité d’un assistant IA, mais ne souhaitent pas être constamment interrompus. Pour Rehberger, les agents IA ne sont pas encore suffisamment matures pour être confiés à des tâches importantes ou à des données sensibles. « Je ne pense pas que nous soyons prêts à laisser un agent IA agir seul pendant longtemps sans risque », conclut-il.
