HyperAIHyperAI

Command Palette

Search for a command to run...

AI menace la sécurité des entreprises : les équipes classiques ne sont pas prêtes

L’intelligence artificielle crée un problème de sécurité que la plupart des entreprises ne sont pas équipées pour gérer, affirme un chercheur en sécurité des systèmes d’IA. Bien que de nombreuses entreprises disposent déjà de départements de cybersécurité, beaucoup ne sont pas préparées aux manières spécifiques dont les systèmes d’IA peuvent échouer, selon Sander Schulhoff, chercheur en sécurité des IA et auteur d’un des premiers guides sur l’ingénierie de prompts. Dans une interview publiée dimanche sur le podcast Lenny’s Podcast, Schulhoff a souligné que les équipes traditionnelles de cybersécurité sont formées à corriger des bogues ou à combler des failles connues, mais qu’elles manquent de compétences pour comprendre les échecs propres aux modèles d’intelligence artificielle. « Tu peux corriger un bogue, mais tu ne peux pas corriger un cerveau », a-t-il dit, mettant en évidence le fossé entre la logique classique de la cybersécurité et le fonctionnement imprévisible des grands modèles linguistiques. Ce décalage se traduit concrètement dans les déploiements réels. Les experts en cybersécurité examinent souvent les systèmes d’IA sous l’angle technique, sans se poser la question cruciale : « Et si quelqu’un parvient à tromper l’IA pour qu’elle fasse quelque chose qu’elle ne devrait pas ? » explique Schulhoff, qui dirige une plateforme d’ingénierie de prompts et un hackathon de test d’intrusion (red-teaming) dédié à l’IA. Contrairement aux logiciels traditionnels, les systèmes d’IA peuvent être manipulés non pas par des failles techniques, mais par des instructions linguistiques subtils ou des prompts malveillants. Un expert capable de maîtriser à la fois la cybersécurité et la sécurité des IA saurait, par exemple, exécuter le code généré par un modèle dans un environnement isolé (container) pour éviter tout impact sur le système global. Selon Schulhoff, c’est précisément à l’intersection entre sécurité des IA et cybersécurité classique que se trouvent les emplois de demain. Par ailleurs, il critique vivement l’émergence de nombreuses startups spécialisées dans la sécurité des IA, qu’il juge souvent peu efficaces. Beaucoup promettent des « garde-fous » capables de tout détecter, mais cette prétention est illusoire. « C’est une totale illusion », affirme-t-il, prédisant une correction du marché dans laquelle les revenus de ces entreprises disparaîtraient rapidement. En effet, l’intérêt des investisseurs pour la sécurité des IA a explosé, alimenté par la peur croissante liée aux risques liés aux modèles d’IA. En mars, Google a acquis la startup de cybersécurité Wiz pour 32 milliards de dollars, dans une stratégie visant à renforcer sa sécurité cloud, notamment dans les environnements multi-cloud et hybrides. Sundar Pichai, PDG de Google, a souligné que l’IA introduisait de nouveaux risques dans un contexte où les infrastructures informatiques deviennent de plus en plus complexes. Selon Business Insider, les inquiétudes croissantes autour de la sécurité des modèles d’IA ont stimulé l’essor d’un écosystème de startups proposant des outils pour surveiller, tester et sécuriser ces systèmes. Mais, comme le rappelle Schulhoff, la vraie sécurité ne se résume pas à des outils automatisés : elle exige une compréhension profonde des mécanismes d’IA et une capacité à anticiper des attaques inédites.

Liens associés

AI menace la sécurité des entreprises : les équipes classiques ne sont pas prêtes | Articles tendance | HyperAI