HyperAIHyperAI

Command Palette

Search for a command to run...

Anthropic poursuit le ministère de la Défense pour l'étiquette « risques liés à la chaîne d'approvisionnement »

Anthropic a intenté une action en justice officielle contre le Département de la défense des États-Unis (DoD) et d'autres agences fédérales lundi, dans l'espoir d'empêcher que son nom soit inscrit sur la liste nationale « risques liés à la chaîne d'approvisionnement » pour raisons de sécurité. Cette étiquette est généralement réservée aux adversaires étrangers ; dès lors qu'elle est appliquée, toute entité collaborant avec le Pentagone doit prouver qu'elle n'utilise pas les technologies concernées par ladite entreprise. Cette démarche juridique marque l'entrée formelle du conflit persistant entre Anthropic et le gouvernement américain dans la sphère judiciaire depuis plusieurs semaines. Le cœur du litige porte sur la question suivante : l'armée devrait-elle disposer d'un accès sans restriction au système d'intelligence artificielle d'Anthropic ? L'ancien secrétaire à la Défense, Pete Hegseth, avait précédemment déclaré que le Pentagone devait pouvoir utiliser les systèmes d'IA à « toutes fins légitimes », sans être contraint par les limites imposées par les sous-traitants privés. De leur côté, Anthropic a établi des « lignes rouges » claires quant à l'utilisation de ses technologies. La société affirme que ses modèles ne doivent ni servir à la surveillance massive de la population américaine, ni fournir un soutien à des systèmes d'armes entièrement autonomes capables de sélectionner leurs cibles et de décider de tirer sans participation humaine. Dans sa requête déposée devant le tribunal fédéral de San Francisco, Anthropic accuse la décision gouvernementale d'être « inédite et illégale », qualifiant cette mesure d'une vengeance dirigée contre les positions publiques de l'entreprise. Selon elle, l'État ne peut invoquer le pouvoir national pour sanctionner une entreprise simplement parce qu'elle s'est exprimée sur les questions de sécurité liées à l'IA. « La Constitution interdit au gouvernement d'user de son immense pouvoir pour punir une entreprise en raison de ses discours protégés », indique la requête. Anthropic souligne également que la législation américaine exige habituellement que les agences fédérales procèdent à une évaluation des risques avant d'exclure une entreprise de la chaîne d'approvisionnement gouvernementale, informent ladite entreprise et lui offrent la possibilité de répondre, tout en soumettant des documents justifiant la qualification de risque pour la sécurité nationale au Congrès. La société estime que le département de la Défense n'a pas respecté ces procédures lors de la présente qualification. Parallèlement, les mesures prises par le gouvernement américain commencent déjà à avoir des conséquences concrètes. Les Services généraux des États-Unis (General Services Administration ou GSA) ont résilié le contrat « OneGov » signé avec Anthropic, rendant ainsi les services d'IA de l'entreprise indisponibles auprès des trois principaux départements du gouvernement fédéral. Dans sa plainte, la firme déclare que ces actions porteront préjudice immédiat et irréparable à ses activités commerciales. Outre le dépôt de recours en Californie, Anthropic a également introduit une autre demande auprès de la Cour d'appel du circuit fédéral basée à Washington, D.C. Conformément à la loi sur les marchés publics fédéraux, une entreprise peut faire appel d'une qualification de « risque lié à la chaîne d'approvisionnement ». Anthropic sollicite donc du tribunal qu'il examine et annule la décision du ministère de la Défense, arguant qu'elle est illégale et motivée par des intentions vindicatives. Dans un communiqué, Anthropic précise que la recherche d'un contrôle juridictionnel ne signifie nullement renoncer à sa volonté de coopérer avec le gouvernement. « Nous restons déterminés à exploiter les technologies d'IA afin de protéger la sécurité nationale, mais ce procès constitue une étape indispensable pour sauvegarder nos intérêts commerciaux, ceux de nos clients et de nos partenaires. » À mesure que les applications potentielles de l'IA se multiplient dans les domaines militaire, de la surveillance et de la sécurité nationale, cette affaire pourrait devenir un précédent juridique majeur concernant les frontières de l'utilisation de l'IA entre entreprises technologiques et pouvoirs publics.

Liens associés

Anthropic poursuit le ministère de la Défense pour l'étiquette « risques liés à la chaîne d'approvisionnement » | Articles tendance | HyperAI