IA conçue pour créer des protéines dangereuses contourne les systèmes de sécurité biologique, une faille « zéro jour » découverte par Microsoft et des partenaires
Des recherches récentes ont mis en lumière un risque majeur lié à l’intelligence artificielle (IA) dans le domaine de la biotechnologie : l’IA pourrait être utilisée pour concevoir des protéines toxiques capables de contourner les systèmes de sécurité actuels. Une équipe internationale menée par Microsoft, en collaboration avec des universités, des entreprises comme Twist Bioscience, Integrated DNA Technologies (IDT), Aclid, ainsi que l’Initiative internationale pour la prévention biologique et la sécurité biologique, a publié une étude dans la revue Science révélant une faille critique, qualifiée de « zéro jour » dans les systèmes de contrôle de sécurité des séquences d’ADN. L’objectif initial de cette recherche était double : d’une part, tester si des outils d’IA open-source, capables de concevoir de nouvelles protéines, pouvaient être détournés pour réinventer des protéines dangereuses tout en les rendant invisibles aux systèmes de détection existants ; d’autre part, développer une réponse rapide et discrète pour renforcer ces systèmes, en adoptant une approche inspirée de la cybersécurité : le « red teaming » (jeu de l’attaquant). Cette méthode consiste à simuler une attaque malveillante pour identifier les faiblesses avant qu’elles ne soient exploitées par des acteurs malintentionnés. Les chercheurs ont sélectionné 72 protéines déjà connues pour leur potentiel toxique, comme la ricine ou la toxine botulique. À l’aide de trois modèles d’IA open-source — ProteinMPNN, EvoDiff-MSA et EvoDiff-Seq —, ils ont généré plus de 76 000 variantes artificielles de ces protéines. Ces variantes, bien que présentant des séquences d’acides aminés très différentes de celles des protéines originales, ont été conçues pour préserver leur structure tridimensionnelle fondamentale, essentielle à leur fonction biologique. L’objectif était de créer des « homologues synthétiques » capables de tromper les systèmes de détection basés sur la comparaison de séquences. Les variantes ont ensuite été testées sur quatre systèmes de sécurité existants, utilisés par des entreprises de synthèse d’ADN. Ces outils, qui reposent principalement sur des méthodes de correspondance séquentielle (comme les modèles de chaînes de Markov cachées ou les réseaux de neurones), ont échoué à détecter entre 30 % et 70 % des variantes hautement similaires sur le plan structurel. Ces résultats, obtenus par simulation numérique sans synthèse réelle de molécules, montrent que les systèmes actuels sont vulnérables aux attaques par « camouflage » génétique. Face à cette faille, l’équipe a travaillé avec les entreprises partenaires pour concevoir des correctifs logiciels. Après dix mois de collaboration discrète, les nouveaux systèmes ont vu leur taux de fausses négatives (non-détection) passer en moyenne à 3 %, avec certains outils réduisant ce taux à 1 %. Cependant, aucune solution n’est parfaite : certaines variantes échappent encore à la détection, notamment celles qui ressemblent davantage à des protéines naturelles inoffensives, ou celles dont le statut de menace est encore débattu par les experts. Cette étude illustre la nécessité d’un renouvellement fondamental des systèmes de sécurité biologique. Elle montre que les approches basées sur la correspondance séquentielle ne suffisent plus face à l’ingénierie avancée par IA. Il faut désormais intégrer des méthodes de prédiction structurelle (comme OpenFold), des systèmes de classification des risques plus précis, et des modèles personnalisables capables d’évoluer avec les menaces. Le cas de Twist Bioscience, pionnière dans la synthèse d’ADN à haut débit grâce à une technologie de puces siliciques, illustre à la fois les progrès et les enjeux. Bien que l’entreprise ait été impliquée dans des litiges liés à des accusations de vol de secrets industriels — résolus en 2020 par un accord financier —, sa collaboration à cette recherche témoigne de son engagement en matière de sécurité biologique. En résumé, cette étude marque une étape clé vers une sécurité biologique proactive. Elle démontre que les outils d’IA peuvent être à la fois des alliés et des menaces, et que la seule réponse durable réside dans une collaboration étroite entre chercheurs, industriels et régulateurs, inspirée des meilleures pratiques de cybersécurité. Le défi n’est pas de stopper l’innovation, mais de la guider vers un usage responsable.