HyperAIHyperAI

Command Palette

Search for a command to run...

Pentagon interdit aux entreprises militaires de collaborer avec Anthropic, accusée de vouloir imposer ses principes à l’armée

Le secrétaire à la Défense Pete Hegseth a déclaré vendredi que l’entreprise d’intelligence artificielle Anthropic constituait une « menace pour la chaîne d’approvisionnement en matière de sécurité nationale », interdisant immédiatement à tous les contractants, fournisseurs ou partenaires de l’armée américaine de mener des activités commerciales avec elle. Cette décision, annoncée sur X, intervient après une escalade des tensions entre Anthropic et le Pentagone autour de l’utilisation de son modèle d’IA, Claude, dans les opérations militaires. Le gouvernement américain, sous l’impulsion du président Trump, a également exigé l’arrêt immédiat de l’utilisation d’Anthropic par toutes les agences fédérales, bien que le Département de la Défense et certaines autres institutions puissent continuer à l’utiliser pendant six mois pour migrer vers d’autres solutions. La crise s’est intensifiée autour de la question des « garde-fous » que Anthropic souhaite imposer à l’utilisation de son IA. L’entreprise, unique à avoir son modèle déployé sur les réseaux classifiés du Pentagone, a insisté sur la nécessité de prévenir toute utilisation abusive, notamment la surveillance de masse des citoyens américains ou l’emploi d’armes autonomes sans contrôle humain. Le Pentagone, quant à lui, a exigé une licence d’utilisation pour « toutes les fins licites », fixant un délai de vendredi à 17h01. Lorsque les négociations ont échoué, Hegseth a accusé Anthropic d’« arrogance » et de vouloir « imposer ses vues idéologiques » à l’armée, qualifiant la société de « sanctimonieuse » et de chercher à exercer un pouvoir de veto sur les décisions opérationnelles militaires. Le PDG d’Anthropic, Dario Amodei, a rétorqué que ses exigences n’étaient pas une ingérence dans les décisions militaires, mais une précaution nécessaire. Il souligne que Claude n’est pas infaillible et que certaines applications de l’IA pourraient compromettre les valeurs démocratiques ou poser des risques sérieux pour la sécurité et la vie privée. Il affirme que l’entreprise n’a jamais cherché à limiter l’usage de son modèle de manière arbitraire, mais qu’elle défend une utilisation responsable de la technologie. Le chef de la technologie du Pentagone, Emil Michael, a indiqué que des concessions avaient été proposées, notamment des engagements écrits sur les lois fédérales et les politiques internes interdisant la surveillance de masse et les armes autonomes. Toutefois, Anthropic a jugé ces garanties insuffisantes, qualifiant le langage juridique utilisé de « piège » permettant de contourner les protections. Cette impasse a conduit à la décision définitive de Hegseth, qui a affirmé que les soldats américains ne doivent jamais être « tenus en otage par les caprices idéologiques de Big Tech ». L’affaire soulève des enjeux majeurs sur l’équilibre entre innovation technologique, sécurité nationale et contrôle démocratique. Des experts estiment que la gestion de l’IA dans le secteur militaire exige des cadres clairs, mais aussi une collaboration responsable entre le secteur privé et l’État. Anthropic, bien que critiquée pour son refus de compromis, incarne une démarche de responsabilité technologique qui pourrait inspirer de nouvelles régulations. Le sort de son partenariat avec le Pentagone reste incertain, mais il illustre la montée en puissance des enjeux éthiques et stratégiques liés à l’intelligence artificielle dans les institutions publiques.

Liens associés

Pentagon interdit aux entreprises militaires de collaborer avec Anthropic, accusée de vouloir imposer ses principes à l’armée | Articles tendance | HyperAI