HyperAI
Back to Headlines

Renforcez la Sécurité des Systèmes IA Agents avec la Recette de Sécurité NVIDIA

il y a 2 jours

Protéger les systèmes d'IA agenciaux avec la recette de sécurité NVIDIA Contexte et Défis Avec l’avancée des modèles linguistiques à grande échelle (LLMs), ils alimentent désormais des systèmes agenciaux capables d’actions autonomes, d'utilisation d'outils et de raisonnement. Ces systèmes attirent les entreprises grâce à leur flexibilité et leurs coûts de déduction bas, mais leur autonomie croissante entraîne également de nouveaux risques : désalignement des objectifs, attaques par injection de prompt, comportements imprévus et surveillance humaine réduite. Le paysage réglementaire mouvant et les différentes postures de risques accentuent les responsabilités juridiques. Des problèmes de confiance, comme les hallucinations, les attaques par injection de prompt, les fuites de données et les réponses offensantes de l’IA, peuvent compromettre la sécurité, la confidentialité, la confiance et la conformité d'une organisation. Ces facteurs freinent l'utilisation de modèles ouverts pour alimenter des agents d'IA d'entreprise. Introduction de la Recette de Sécurité NVIDIA Cette publication présente la recette de sécurité NVIDIA, une approche complète qui renforce chaque phase du cycle de vie de l’IA grâce à des jeux de données ouverts, des techniques d'évaluation et des méthodes d'après-formation. Cette méthode holistique permet aux gestionnaires de politiques, aux propriétaires des risques tels que les CISOs et CIOs, ainsi qu’aux chercheurs en IA, de gérer activement les menaces de sécurité, d'imposer des politiques d'entreprise et de déployer des applications d'IA agenciales de manière responsable et en toute confiance. Pourquoi les flux de travail agenciaux ont-ils besoin d'une recette de sécurité ? Les modèles avancés à poids ouverts ne sont pas toujours alignés sur les politiques de sécurité des entreprises, et les environnements en constante évolution introduisent des risques qui surpassent les capacités des mesures de protection traditionnelles, comme les filtres de contenu et les normes. Sans surveillance continue et consciente des politiques, les systèmes d'IA peuvent être exposés à des attaques sophistiquées par injection de prompt. La recette de sécurité pour l'IA agenciale offre un cadre de niveau entreprise qui permet aux organisations de construire, déployer et opérer des systèmes d'IA qui sont fiables et alignés avec les politiques internes et les exigences réglementaires externes. Application des défenses lors de la génération, du déploiement et de l’exécution Phase de Génération L'évaluation et l'alignement du modèle sont des étapes cruciales pour s'assurer que ses sorties correspondent aux objectifs spécifiques de l'entreprise, aux normes de sécurité, de confiance et d'attentes en matière de confidentialité des utilisateurs, ainsi qu'à la conformité réglementaire. NVIDIA propose des outils d'évaluation, notamment le framework NVIDIA NeMo, utilisant des jeux de données ouverts et des modèles de modération de contenu. - Le jeu de données Nemotron Content Safety Dataset v2 et le modèle Llama Nemotron Safety Guard v2 vérifient rigoureusement les sorties potentiellement nuisibles, renforçant l’intégrité du contenu et l'alignement avec les politiques d'entreprise. - Le jeu de données WildGuardMix avec le modèle AllenAI WildGuard sont également utilisés pour des évaluations comparatives externe. - Le scanner de vulnérabilité garak teste le système pour résister aux prompts adverses et aux tentatives de contournement, assurant une robustesse maximale. Phase de Post-Formation Le framework NeMo RL permet aux développeurs d'appliquer des techniques d'après-formation par apprentissage supervisé (SFT) et apprentissage par renforcement (RL), ainsi que d'utiliser des jeux de données ouverts sous licence pour créer des systèmes d'IA transparents et fiables. Les utilisateurs préparent des mélanges de jeux de données on-policy spécifiques à la sécurité pour les utiliser pendant l'après-formation des modèles. - Un rapport complet sur la sécurité et la sûreté du modèle est généré après l’après-formation, garantissant son conformité aux politiques d'entreprise et aux standards requis. - Une réévaluation de la précision spécifique à la tâche est également essentielle à ce stade pour s'assurer que toutes les évaluations respectent les seuils de sécurité et de sécurité des entreprises. - Après validation, le modèle est déployé à l'aide du microservice LLM NIM pour fournir des inférences à haute échelle dans plusieurs environnements. Phase d’Exécution Les menaces ne cessent pas après l’après-formation ; il existe toujours un risque résiduel. Les insights tirés des évaluations garak et de l'après-formation, en combinaison avec NeMo Guardrails, offrent une protection continue et programmable durant l'exécution. - Le modèle Llama 3.1 Nemoguard 8B Content Safety NIM bloque les sorties biaisées ou toxiques. - Le modèle Llama 3.1 Nemoguard 8B Topic Control NIM maintient les interactions dans les domaines d'affaires ou de conformité approuvés. - Le modèle Nemoguard Jailbreak Detect NIM défend contre le génie malveillant de prompts conçu pour contourner les protections du modèle. Amélioration des Normes de Sécurité et de Sicurité Les benchmarks de sécurité de pointe de l'industrie mettent en évidence l'écart en matière de sécurité et de sûreté entre le modèle à poids ouverts de base et le même modèle renforcé par la recette de sécurité post-formation NVIDIA. - Sécurité du Contenu : En utilisant la recette de sécurité et le jeu de données sécurité, la sicurité du produit a été améliorée de 88 % à 94 %, soit une augmentation de 6 %, sans dégradation measurable de la précision. - Sécurité du Produit : L’augmentation de la résilience de sécurité du produit a été de 56 % à 63 %, soit 7 %, protégeant contre les prompts adverses, les tentatives de contournement et la génération de contenu nuisible. Ces améliorations permettent aux organisations de passer en confiance des modèles ouverts de développement à déploiement, en intégrant des mesures de protection et une adoption responsable de systèmes d'IA agenciaux. Intégration dans des Solutions d'Entreprise Des leaders de la cybersécurité et de la sécurité de l'IA, telles qu’Active Fence, Cisco AI Defense, CrowdStrike Falcon Cloud Security et Trend Micro, intègrent ces composantes de sécurité NVIDIA dans leurs produits et solutions. - Active Fence permet aux entreprises de déployer des agents en toute sécurité avec des barrières de temps réel, garantissant des interactions plus sécurisées en IA générative. - Cisco AI Defense s'intègre avec NeMo pour évaluer les vulnérabilités des modèles en utilisant le test à blanc algorithmique et offrir des barrières complémentaires de sécurité, de sûreté et de confidentialité pour les applications en temps réel. - CrowdStrike Falcon Cloud Security coopère avec le cycle de formation NeMo, permettant aux clients d'intégrer les enseignements tirés de la surveillance continue des prompts et des données d'intelligence sur les menaces en provenance des modèles en temps réel, dans l'après-formation ultérieure du modèle. - Trend Micro s'intègre dans le pipeline de développement des modèles NeMo pour garantir que les mécanismes de sécurité des modèles évoluent de manière fiable et sécurisée dans les environnements d'entreprise. Démarrer l’Amélioration de la Sécurité de votre Système d’IA La recette de sécurité pour l'IA agenciale fournit une référence structurée visant à évaluer et aligner les modèles ouverts dès le début, favorisant une meilleure sécurité, une meilleure sûreté et des flux de travail conformes. Vous pouvez accéder à cette recette via un notebook Jupyter à télécharger ou via une option de déploiement dans le cloud à partir de build.nvidia.com en utilisant NVIDIA Brev. Avantages Principaux Évaluation Complète : Assure l’alignement précoce des modèles avec les politiques et normes spécifiques. Protection Continue : Offre une surveillance et une protection durant l'exécution à travers des barrières et des techniques de résilience. Amélioration des Performances : Augmente de manière significative la sicurité du contenu et la résilience de sécurité sans impact sur la précision du modèle. Conformité Réglementaire : Aide les entreprises à respecter les exigences des régulateurs et à limiter les risques juridiques. Conclusion La recette de sécurité NVIDIA permet de transformer les modèles à poids ouverts en systèmes d'IA d'entreprise fiables et sécurisés, facilitant ainsi leur adoption responsable. Avec l’intégration de cette recette, les entreprises peuvent naviguer dans un environnement complexe tout en minimisant les risques et en maximisant les bénéfices. Évaluation Par des Professionnels de l'Industrie Selon des experts du secteur, la recette de sécurité NVIDIA offre un framework solide et adaptable pour les entreprises cherchant à exploiter pleinement les capacités des LLMs tout en garantissant une sécurité robuste. Active Fence salué la simplicité d'intégration et l’efficacité des barrières temps réel, tandis que Cisco AI Defense a souligné la valeur ajoutée des techniques de test à blanc algorithmique. CrowdStrike et Trend Micro se sont félicitées de la capacité de l’écosystème NVIDIA à s’intégrer parfaitement dans leurs processus de sécurité existants, permettant des mises à jour en temps réel et une meilleure collaboration. Profil de NVIDIA NVIDIA est une entreprise de technologie leader spécialisée en calcul haute performance et intelligence artificielle. Son framework NeMo et ses outils de sécurité sont conçus pour répondre aux besoins complexes des entreprises en matière de sécurité et de conformité, assurant ainsi le déploiement responsable et efficace de solutions d'IA agenciales.

Related Links