Les cybermenaces explorent l'IA pour de nouvelles capacités, selon Google
Le groupe Google Threat Intelligence (GTIG) a publié un rapport récent mettant en lumière un changement majeur dans le paysage de la cybersécurité. Les acteurs malveillants ne se contentent plus d’utiliser l’intelligence artificielle (IA) pour améliorer leur productivité ; ils explorent désormais des opérations innovantes et dangereuses fondées sur l’IA. Selon le rapport, des groupes soutenus par des États — notamment ceux provenant de la Corée du Nord, de l’Iran et de la République populaire de Chine — tentent de détourner les technologies d’IA pour renforcer leurs activités malveillantes, allant de la phase de renseignement à la création de campagnes de phishing, en passant par le vol de données. Les menaces observées incluent l’utilisation de logiciels malveillants alimentés par l’IA capables de générer dynamiquement des scripts malveillants et de modifier leur code en temps réel pour contourner les systèmes de détection traditionnels. Cette capacité à s’adapter en continu rend ces menaces particulièrement difficiles à repérer et à contrer. Par ailleurs, des cybercriminels ont commencé à simuler des profils crédibles — comme des étudiants ou des chercheurs — dans leurs requêtes aux modèles d’IA afin de contourner les mécanismes de sécurité conçus pour empêcher l’accès à des informations sensibles. Ces tactiques permettent aux attaquants d’extraire des données restreintes ou des informations stratégiques via des interfaces d’IA censées être protégées. Le rapport révèle également l’existence de marchés numériques souterrains où des outils d’IA avancés sont vendus ou échangés pour des usages malveillants. Ces plateformes offrent des ressources pour concevoir des campagnes de phishing ciblées, développer des logiciels malveillants ou identifier des vulnérabilités dans les systèmes informatiques. Cette commodification de l’IA malveillante accentue la menace, car elle permet à des acteurs moins expérimentés de mener des attaques sophistiquées. Face à ces évolutions, Google a mis en œuvre plusieurs mesures proactives. Le GTIG a désactivé des actifs associés à des activités malveillantes, interrompant ainsi des chaînes d’attaque. En outre, les données d’analyse collectées ont été intégrées dans les systèmes de classification et les modèles d’IA de Google afin de renforcer leur résilience face aux abus. Ces améliorations visent à mieux détecter les comportements suspects, à bloquer les tentatives de contournement des garde-fous de sécurité et à anticiper les nouvelles menaces émergentes. Le rapport souligne que l’IA, bien qu’innovante, devient un outil double usage : elle peut à la fois protéger les systèmes et les exposer. La responsabilité de la sécurisation de ces technologies repose désormais sur les entreprises, les chercheurs et les institutions. La transparence, la collaboration et l’innovation continue sont essentielles pour rester en avance sur les menaces. Le document complet est disponible sur le blog du Google Cloud Threat Intelligence, offrant des détails techniques et des recommandations pour les équipes de sécurité. Ce rapport s’inscrit dans une dynamique plus large de vigilance accrue face à l’hybridation croissante des menaces numériques et de l’IA.
