赫格塞斯下令禁令:Anthropic被列为供应链风险,军事承包商不得与其合作
美国国防部长皮特·赫格塞斯(Pete Hegseth)周五宣布,将人工智能公司Anthropic列为“国家安全隐患的供应链风险”,并立即禁止所有与美军有业务往来的承包商、供应商或合作伙伴与Anthropic开展任何商业合作。此举标志着美国防部与该AI巨头之间持续数日的激烈冲突达到顶点。 赫格塞斯在社交媒体X上强调:“美国的作战人员绝不会被科技巨头的意识形态操控所要挟。此决定不可更改。”尽管总统特朗普此前宣布联邦机构需立即停止使用Anthropic服务,但国防部及其他部分机构可在未来六个月内继续使用其AI模型Claude,以完成过渡。 此次决裂源于双方在AI军事应用边界上的根本分歧。Anthropic是目前唯一其模型被部署在五角大楼机密网络中的AI公司,其核心立场是为AI技术设立安全边界,防止其被用于对美国公民的大规模监控,或在缺乏人类干预的情况下执行军事行动。公司主张,其模型尚不具备完全可靠性,不应用于全自动武器系统。 然而,五角大楼坚持要求合同条款允许Claude模型用于“所有合法用途”,并设定周五下午5点01分为最后期限。在谈判破裂后,国防部官员公开批评Anthropic试图将自己的价值观强加于军方,称其行为“虚伪且傲慢”,意图夺取对美军作战决策的否决权。 Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)则回应称,公司从未试图限制军方使用其技术,但强调在特定情况下,AI可能损害民主价值,且当前技术尚无法安全可靠地支持某些高风险应用。他指出,公司支持AI安全与透明监管,也理解军事决策权属于国防部。 五角大楼首席技术官埃米尔·迈克尔(Emil Michael)周四表示,已做出让步,包括书面确认联邦法律与军方内部政策已禁止大规模监控和完全自主武器。但他也坦言,军方不会接受任何可能被公司随意规避的法律条款。 Anthropic方面则认为,这些条款虽有文字承诺,但附加的法律术语仍允许公司单方面忽略安全限制,因此无法接受。这场冲突凸显了AI技术在国家安全与伦理边界之间日益尖锐的张力。
