Le Pentagone frustré par les restrictions d'Anthropic sur l'utilisation de Claude par les forces de l'ordre
Des responsables de la Maison Blanche seraient frustrés par les restrictions imposées par Anthropic concernant l'utilisation de son modèle d'intelligence artificielle Claude, notamment dans le cadre des activités des forces de l'ordre. Selon des informations rapportées, les politiques d'utilisation du chatbot Claude empêchent les contractuels du FBI et du Secret Service d'intégrer efficacement l'outil dans leurs missions. Ces limites, jugées trop strictes par certains responsables gouvernementaux, entravent la capacité des agents à tirer parti des avancées de l'intelligence artificielle pour analyser des données, préparer des rapports ou soutenir des enquêtes. Bien que Anthropic ait conçu ses systèmes pour éviter les abus, la sécurité ou les biais, les autorités estiment que ces mesures de précaution nuisent à la productivité opérationnelle dans des contextes sensibles. La tension s'inscrit dans un débat plus large sur l'équilibre entre innovation technologique et contrôle des risques, notamment dans les services de sécurité nationale. Les responsables de la Maison Blanche cherchent désormais à établir un dialogue avec Anthropic afin de trouver des compromis permettant une utilisation plus souple et sécurisée de l'IA, tout en respectant les exigences réglementaires et éthiques.
