NSA utilise le modèle Mythos d'Anthropic
Selon des informations rapportées par Axios, l'Agence nationale de la sécurité (NSA) des États-Unis utilise le modèle Mythos Preview d'Anthropic, une intelligence artificielle de pointe réservée aux tâches de cybersécurité. Cette révélation survient quelques semaines après que le Pentagone, l'agence mère de la NSA, a classé Anthropic comme un risque pour la chaîne d'approvisionnement. Ce classement intervenait suite au refus d'Anthropic d'accorder aux responsables du Pentagone un accès non restreint à toutes les capacités de ses modèles. Annoncé plus tôt ce mois-ci, Mythos Preview est conçu pour renforcer la sécurité informatique. Cependant, l'entreprise a estimé que le modèle était trop puissant pour être potentiellement exploité dans des cyberattaques offensives, ce qui l'a empêchée de le rendre accessible au public. Par conséquent, l'accès à cette technologie a été limité à environ quarante organisations, dont seulement une douzaine ont été nommées publiquement. La NSA apparaît comme l'un des destinataires non annoncés et utiliserait principalement ce système pour scanner les environnements numériques à la recherche de vulnérabilités exploitables. L'Institut de sécurité de l'IA du Royaume-Uni a également confirmé qu'il avait accès à Mythos. Cette utilisation accrue des outils d'Anthropic par l'armée américaine s'inscrit dans un contexte paradoxal. En effet, le Pentagone soutient en justice que ces mêmes outils d'intelligence artificielle peuvent menacer la sécurité nationale. Le conflit initial a éclaté lorsque Anthropic a refusé de mettre son modèle Claude à disposition pour une surveillance civile massive ou pour le développement d'armes autonomes. Malgré ces tensions précédentes, la relation entre Anthropic et l'administration Trump semble en cours de réchauffement. Le week-end dernier, Dario Amodei, PDG d'Anthropic, a rencontré Susie Wiles, chef de cabinet de la Maison Blanche, et Scott Bessent, secrétaire au Trésor. La Maison Blanche a qualifié cette réunion de productive. À ce stade, la rédaction de TechCrunch a sollicité la NSA pour commenter la nouvelle, mais n'a reçu aucune réponse. De son côté, Anthropic a refusé de s'exprimer sur le sujet. Cette situation met en lumière une contradiction notable dans la stratégie de gouvernance de l'IA aux États-Unis, où une agence de renseignement utilise une technologie dont les développements antérieurs ont été contestés par son propre département de tutelle pour des raisons de sécurité nationale. L'accord de sécurité nationale repose désormais sur un équilibre subtil entre l'exploitation des capacités défensives de l'IA et la limitation de ses risques d'utilisation offensive.
