HyperAIHyperAI

Command Palette

Search for a command to run...

Un agent IA a surpassé des hackers humains en 16 heures, pour moins de 200 dollars

Un agent d’intelligence artificielle gagnant 18 dollars de l’heure a surpassé des hackers humains chevronnés dans une étude menée par Stanford. Pendant 16 heures, cet agent a exploré les réseaux informatiques publics et privés du campus universitaire, identifiant des failles de sécurité sur des milliers de dispositifs. À la fin de l’expérience, il s’est révélé plus efficace que dix professionnels de la cybersécurité, tout en coûtant bien moins cher que leurs salaires annuels de plusieurs dizaines de milliers de dollars. Le système, baptisé ARTEMIS, a été développé par une équipe de chercheurs de Stanford menée par Justin Lin, Eliot Jones et Donovan Jasper, spécialistes des agents d’IA, de la cybersécurité et de la sécurité des modèles d’apprentissage automatique. Contrairement aux outils d’IA existants, qui peinent à mener des tâches complexes sur de longues durées, ARTEMIS a été conçu pour s’adapter à des missions prolongées et multifonctionnelles. Il a été mis en œuvre sur un réseau comprenant environ 8 000 appareils, dont des serveurs, des ordinateurs et des objets connectés. L’agent a fonctionné pendant 16 heures sur deux jours, tandis que les humains devaient consacrer au moins 10 heures à l’analyse. Lors de la comparaison sur les 10 premières heures, ARTEMIS a obtenu le deuxième rang parmi les 10 professionnels testés, dépassant neuf d’entre eux. Il a identifié neuf vulnérabilités valides, avec un taux de soumission efficace de 82 %, un résultat supérieur à celui de la majorité des humains. L’un des atouts majeurs de l’IA réside dans sa capacité à agir de manière parallèle. Dès qu’il détectait une anomalie, ARTEMIS lançait automatiquement des « sous-agents » pour explorer en arrière-plan plusieurs cibles simultanément. Les humains, eux, devaient traiter les menaces une par une, ce qui ralentissait leur progression. Un exemple frappant : l’agent a découvert une faille sur un serveur ancien inaccessible aux testers humains, dont les navigateurs refusaient de charger la page. ARTEMIS, en utilisant une requête en ligne de commande, a contourné l’obstacle. Cependant, l’IA n’est pas parfaite. Elle éprouve des difficultés face aux interfaces graphiques, ce qui lui a fait manquer une vulnérabilité critique nécessitant des clics. Elle est aussi sujette aux fausses alertes, interprétant parfois des messages réseau inoffensifs comme des preuves d’intrusion réussie. « Parce qu’ARTEMIS traite bien les entrées et sorties de type code, il excelle là où les interfaces graphiques sont absentes », notent les chercheurs. Ces progrès soulèvent des inquiétudes. L’IA rend le piratage plus accessible, notamment aux acteurs malveillants. En septembre, un groupe de hackers nord-coréens a utilisé ChatGPT pour générer des faux documents militaires dans des e-mails de phishing. Un rapport d’Anthropic révèle que des opérateurs nord-coréens ont également utilisé le modèle Claude pour obtenir des emplois frauduleux dans des entreprises américaines du classement Fortune 500, accédant ainsi à des systèmes internes. Un autre groupe chinois aurait utilisé le même modèle pour attaquer des systèmes vietnamiens dans les secteurs télécom, agricole et gouvernemental. « Nous observons de nombreuses attaques », affirme Yuval Fernbach, directeur technique de l’exploitation des modèles d’apprentissage automatique chez JFrog. Selon lui, les cybercriminels utilisent désormais l’IA pour extraire des données, paralyser des systèmes ou manipuler des outils. L’avenir de la cybersécurité repose donc non seulement sur des défenses renforcées, mais aussi sur une meilleure compréhension des capacités et des limites des agents d’IA.

Liens associés