L’IA peut désormais mener des attaques de rançongiciel tout seul : la menace de "Ransomware 3.0" s’impose comme une nouvelle ère du cybercrime
Des modèles linguistiques à grande échelle (LLM) peuvent désormais mener des attaques de rançongiciel de manière autonome, selon une étude menée par l’École de génie NYU Tandon et publiée sur la plateforme arXiv. Ce travail met en lumière une évolution majeure du rançongiciel, baptisée « Ransomware 3.0 » ou « PromptLock » par le laboratoire de sécurité ESET, qui a découvert le prototype sur VirusTotal, une plateforme d’analyse de fichiers malveillants. Bien que ce système soit en réalité un prototype de recherche non fonctionnel en dehors d’un environnement contrôlé, son existence soulève des inquiétudes sérieuses quant à l’avenir des cybermenaces. Le système développé par l’équipe de NYU Tandon reproduit intégralement les quatre étapes d’une attaque de rançongiciel : cartographie du système cible, identification des fichiers sensibles, vol ou chiffrement des données, et génération de notes de rançon personnalisées. Contrairement aux attaques classiques basées sur du code pré-écrit, ce prototype utilise des instructions textuelles intégrées dans les programmes. Lors de son exécution, il interagit avec des modèles linguistiques open-source pour générer dynamiquement des scripts Lua adaptés à chaque environnement cible — que ce soit un PC personnel, un serveur d’entreprise ou un système de contrôle industriel — sans nécessiter de modification manuelle. L’un des points clés de cette recherche est la variabilité des scripts générés : même avec un même prompt initial, chaque exécution produit un code unique, rendant les méthodes traditionnelles de détection basées sur les signatures ou les comportements prévisibles inefficaces. Les tests ont montré que les modèles IA étaient capables d’identifier entre 63 % et 96 % des fichiers sensibles selon l’environnement, tout en étant compatibles avec Windows, Linux et Raspberry Pi, ce qui démontre leur polyvalence. Sur le plan économique, l’impact est significatif. Une attaque complète consomme environ 23 000 tokens d’IA, soit environ 0,70 $ avec des services commerciaux comme GPT-4. En utilisant des modèles open-source, les coûts peuvent être réduits à zéro. Cette baisse drastique des barrières d’entrée permettrait même à des cybercriminels moins expérimentés de mener des campagnes sophistiquées auparavant réservées à des groupes hautement compétents. L’effet psychologique est également renforcé : les notes de rançon peuvent être personnalisées en mentionnant les fichiers volés, augmentant ainsi la pression sur les victimes. L’alerte initiale provoquée par ESET, qui a cru découvrir un rançongiciel actif en circulation, illustre à quel point ces systèmes peuvent tromper les experts en sécurité, même lorsqu’ils sont conçus dans un cadre académique. Les chercheurs insistent sur l’importance de préparer des défenses adaptées : surveillance des accès aux fichiers sensibles, contrôle des connexions sortantes vers des services d’IA, et développement d’outils de détection capables d’identifier les comportements inhabituels liés à la génération d’attaques par IA. Bien que le prototype n’ait pas été déployé dans le monde réel, il sert de signal d’alarme critique pour la communauté de la cybersécurité, mettant en évidence la nécessité d’anticiper les menaces émergentes liées à l’intelligence artificielle.
