HySafe-AI : Cadre d'analyse architectural de sécurité hybride pour les systèmes d'intelligence artificielle : Une étude de cas

L'intelligence artificielle (IA) est devenue un élément indispensable dans les domaines critiques pour la sécurité, tels que les systèmes de conduite autonome (ADS) et la robotique. L'architecture des systèmes autonomes récents tend vers des architectures monolithiques de type end-to-end (E2E), comme les modèles de langage à grande échelle (LLMs) et les modèles vision-langage (VLMs). Dans cet article, nous passons en revue différentes solutions d'architecture, puis nous évaluons l'efficacité des analyses de sécurité courantes, telles que l'analyse des modes de défaillance et de leurs effets (FMEA) et l'analyse des arbres de panne (FTA). Nous montrons comment ces techniques peuvent être améliorées pour tenir compte de la complexité des modèles fondamentaux, notamment en ce qui concerne la manière dont ils forment et utilisent les représentations latentes. Nous introduisons HySAFE-AI, un cadre hybride d'analyse architecturale de la sécurité pour les systèmes d'IA, qui adapte les méthodes traditionnelles pour évaluer la sécurité des systèmes d'IA. Enfin, nous proposons des pistes pour les travaux futurs et des recommandations visant à guider l'évolution des normes futures en matière de sécurité de l'IA.