HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI élargit son programme d'accès à la défense réseau de confiance

OpenAI annonce le lancement d'une version spécialisée de son modèle GPT-5.4, baptisée GPT-5.4-Cyber, destinée aux défenseurs de la cybersécurité. Cette initiative s'inscrit dans le cadre de l'élargissement de son programme Trusted Access for Cyber (TAC), qui vise à renforcer les capacités de protection des logiciels critiques en accord avec l'évolution rapide des capacités d'intelligence artificielle. Depuis 2023, OpenAI a mis en place un programme de subventions en cybersécurité et un cadre de préparation pour anticiper les risques. En 2025, des garde-fous spécifiques au domaine de la sécurité informatique ont été intégrés aux déploiements de modèles. Parallèlement, l'entreprise a lancé Codex Security, un outil permettant de détecter et de corriger les vulnérabilités à grande échelle. Ce système a déjà contribué à la résolution de plus de 3 000 failles critiques et de nombreuses autres d'une sévérité moindre. La nouvelle version GPT-5.4-Cyber a été spécifiquement fine-tunée pour être plus permissive dans le contexte de la défense. Elle réduit les barrières de refus pour les tâches de cybersécurité légitimes et intègre de nouvelles fonctionnalités, telles que l'analyse de logiciels compilés (reverse engineering) pour détecter les malwares sans avoir besoin d'accéder au code source original. Cette évolution répond à une réalité où les modèles d'IA sont utilisés à la fois par les défenseurs pour accélérer la correction des failles et par les attaquants pour développer des méthodes plus sophistiquées. L'accès à ces outils avancés repose sur le programme TAC, qui repose sur trois principes : un accès démocratisé basé sur une vérification d'identité stricte pour éviter les abus, un déploiement itératif permettant d'apprendre et d'améliorer les modèles en temps réel, et le renforcement de la résilience de l'écosystème de défense. Pour obtenir l'accès à la version GPT-5.4-Cyber, les utilisateurs doivent s'authentifier comme défenseurs de la cybersécurité. Le déploiement initial est restreint aux fournisseurs de sécurité, aux organisations et aux chercheurs validés pour garantir la maîtrise des risques. Les versions plus permissives peuvent comporter des limitations techniques, notamment en matière de non-conservation des données, surtout pour les utilisateurs accédant aux modèles via des plateformes tierces. Les développeurs approuvés pourront utiliser ces modèles pour la recherche de vulnérabilités, la programmation défensive et l'éducation en sécurité. OpenAI maintient que les protections actuelles sont suffisantes pour un déploiement large, mais reconnaît que les modèles futurs nécessiteront des contrôles plus restrictifs au fur et à mesure que leurs capacités dépasseront celles des modèles actuels. En somme, OpenAI cherche à accélérer la sécurité logicielle en fournissant aux professionnels de la défense les outils d'IA les plus performants, tout en maintenant un équilibre rigoureux entre l'efficacité opérationnelle et la prévention des mauvais usages. Cette approche vise à transformer la sécurité d'une série d'audits ponctuels en une réduction continue des risques intégrée directement dans le cycle de développement des logiciels.

Liens associés

OpenAI élargit son programme d'accès à la défense réseau de confiance | Articles tendance | HyperAI