2026 年 2 月 27 日,美国战争部长 Pete Hegseth 在 X(原 Twitter)上宣布,将指令战争部把 Anthropic 列为「供应链风险」。Anthropic 随即发表声明,措辞强硬,宣布将在法庭上挑战这一认定。
事件背景
这一升级源于数月谈判的破裂。Anthropic 在向战争部提供 Claude 模型服务时,坚持两条例外条款:
- 禁止大规模国内监控:不允许将 Claude 用于对美国公民进行大规模国内监控
- 禁止完全自主武器:不允许将 Claude 用于无人类参与决策的完全自主武器系统
战争部要求取消这两条例外,谈判因此陷入僵局。
Anthropic 的完整声明
AnthropicAnthropicAnthropicAnthropicAnthropicAnthropicAnthropicAnthropic 在声明中直接回应了多个核心问题:
坚持立场,不会退让
无论战争部如何恐吓或惩罚,都不会改变我们在大规模国内监控和完全自主武器上的立场。我们将在法庭上挑战任何供应链风险认定。
两条例外的理由
关于完全自主武器:当前的前沿 AI 模型可靠性尚不足以支撑完全自主武器决策。允许当前模型用于这一场景将危及美国士兵和平民的生命。
关于大规模国内监控:Anthropic 认为,对美国公民进行大规模监控构成对基本权利的侵犯。
法律分析:战争部没有这个权力
AnthropicAnthropicAnthropicAnthropicAnthropicAnthropicAnthropic 指出,Hegseth 暗示这一认定将限制所有与军方有业务往来的公司与 Anthropic 合作,但这超出了战争部长的法定权力范围。
根据美国法典 10 USC 3252,供应链风险认定只能延伸至「在战争部合同中使用 Claude」——不能影响承包商将 Claude 用于其他客户的业务。
对客户的影响
AnthropicAnthropicAnthropicAnthropicAnthropicAnthropicAnthropic 明确说明了两类客户的实际影响:
个人用户和商业合同客户:通过 API、claude.ai 或任何 Anthropic 产品访问 Claude 的方式完全不受影响。
战争部承包商:如果认定正式生效,仅影响在战争部合同工作中使用 Claude——用于其他目的不受影响。
历史意义:前所未有的先例
AnthropicAnthropicAnthropicAnthropicAnthropicAnthropicAnthropic 指出,将美国企业列为供应链风险是史无前例的行动——这一工具历史上只用于美国的对手国家,从未公开用于美国本土企业。
我们对这些事态发展深感悲痛。作为第一家在美国政府机密网络部署前沿 AI 模型的公司,Anthropic 自 2024 年 6 月起就一直支持美国士兵,并有意继续这样做。
行业反应
这一事件在 AI 行业、科技界和政策圈引发广泛关注。多位行业同行、政策制定者、退伍军人和公众人士公开表达了对 Anthropic 的支持。
此事件标志着 AI 公司与政府机构在 AI 军事应用伦理边界上的首次公开对峙,其走向将对整个行业产生深远影响。
原文:Statement on the comments from Secretary of War Pete Hegseth | 来源:Anthropic 官方声明 | 2026-02-27