HyperAIHyperAI

Command Palette

Search for a command to run...

Première défense efficace contre les attaques cryptanalytiques visant à voler les paramètres des IA

Des chercheurs ont mis au point la première défense fonctionnelle contre les attaques cryptanalytiques visant à extraire les paramètres d’un modèle d’intelligence artificielle (IA), une menace majeure pour la propriété intellectuelle des systèmes d’IA. Ces attaques, qui exploitent des méthodes mathématiques pour déduire les paramètres d’un réseau de neurones à partir de ses entrées et sorties, permettent à un tiers de reproduire fidèlement un modèle, notamment des grands modèles linguistiques comme ChatGPT. Jusqu’à présent, aucune protection efficace n’existait contre ce type d’attaque. Ashley Kurian, doctorante à l’Université de Caroline du Nord et auteure principale d’une étude publiée sur arXiv, souligne que ces attaques sont déjà en cours et en progression. Aydin Aysu, professeur agrégé en génie électrique et informatique à l’université, insiste sur l’urgence de déployer des mesures de défense dès maintenant, car il est trop tard une fois les paramètres volés. L’attaque cryptanalytique repose sur l’analyse des différences entre les neurones d’un même niveau d’un réseau neuronal. Plus ces différences sont marquées, plus l’attaque est efficace. Les chercheurs ont identifié un principe fondamental : en rendant les neurones d’une même couche plus similaires entre eux, on crée une barrière qui bloque l’attaque. Leur solution, baptisée Train to Defend, consiste à réentraîner le modèle d’IA de manière à promouvoir cette similarité, sans altérer sa performance. Cette approche peut s’appliquer à une couche ou plusieurs, et à tous les neurones ou seulement à une partie d’entre eux. Les tests montrent que l’impact sur la précision du modèle est négligeable, inférieur à 1 %, et parfois même une légère amélioration a été observée. Dans des expériences contrôlées, les modèles protégés ont résisté à des attaques cryptanalytiques qui, sans défense, auraient permis une extraction des paramètres en moins de quatre heures. Avec la nouvelle protection, les chercheurs n’ont pas pu extraire les paramètres après plusieurs jours d’analyse. En parallèle, une cadre théorique a été développé pour estimer la probabilité de succès d’une attaque sans avoir à la mener en pratique, offrant ainsi un outil précieux pour évaluer la sécurité des modèles IA. Les chercheurs estiment que cette méthode est prometteuse et souhaitent collaborer avec des entreprises pour son intégration dans des systèmes réels. Ils reconnaissent toutefois que la cybersécurité est un combat incessant, et qu’il faudra continuer à innover, ce qui nécessite un financement soutenu. L’étude, intitulée Train to Defend: First Defense Against Cryptanalytic Neural Network Parameter Extraction Attacks, sera présentée à la conférence NeurIPS 2025 à San Diego, du 2 au 7 décembre. En termes d’impact industriel, cette découverte représente une avancée majeure pour les entreprises dépendantes des modèles d’IA, notamment dans les secteurs de la santé, de la finance et de la cybersécurité, où la protection des algorithmes est cruciale. Des experts du domaine saluent l’approche innovante, soulignant qu’elle transforme une faiblesse fondamentale en un mécanisme de défense actif. Des entreprises comme NVIDIA, Google DeepMind ou Meta, qui développent des modèles d’IA à grande échelle, pourraient être particulièrement intéressées par cette technologie, tant elle répond à un besoin stratégique croissant en matière de sécurité des systèmes d’intelligence artificielle.

Liens associés