2026 年 3 月,美国国防部长(Secretary of War)Pete Hegseth 在 X 上宣布,将指示国防部将 Anthropic 列为供应链风险。Anthropic 随即发布声明,回应这一前所未有的举措。
事件起因
根据 Anthropic 声明,这一行动发生在双方就 Claude 在国防领域「合法用途」谈判数月未果之后。争议焦点是 Anthropic 坚持的两项例外:
- 大规模国内监控美国公民 — Anthropic 拒绝将此纳入合同
- 完全自主武器 — 认为当前 AI 技术不够可靠,不应用于完全无人监督的武器系统
国防部要求所有 AI 供应商接受「任何合法用途」,不得设置安全例外。Anthropic 不接受。
供应链风险认定意味着什么?
历史上,「供应链风险」标签只针对美国对手国家和企业,从未公开用于美国本土公司。
根据美国法典 10 USC 3252,供应链风险认定的法律效力仅限于:
- 在国防部合同中使用 Claude 的情形
不能影响:
- 其他客户使用 Claude 的方式
- Claude.ai 或 API 的商业访问
- 非国防部合同中的使用
Anthropic 对客户的说明
个人用户和商业合同客户:完全不受影响。通过 API、claude.ai 或任何 Anthropic 产品使用 Claude 的方式不会有任何变化。
国防部承包商:如果认定正式落地,只影响你在国防部合同工作中使用 Claude。其他任何用途不受影响。
内在矛盾
Anthropic 指出国防部两项威胁存在逻辑矛盾:
- 将 Anthropic 列为供应链风险 → 暗示 Anthropic 是安全威胁
- 援引《国防生产法》强制 Anthropic 修改产品 → 暗示 Claude 对国家安全不可或缺
这两个立场无法同时成立。
Anthropic 的回应
「没有任何来自国防部的恐吓或惩罚能改变我们在大规模国内监控或完全自主武器问题上的立场。我们将在法庭上挑战任何供应链风险认定。」
同时,Anthropic 表示:
- 已尝试真诚谈判,支持除两项例外之外的所有合法国防用途
- 这两项例外迄今没有阻碍任何国防任务
- 如果国防部最终决定更换供应商,Anthropic 将配合平稳过渡
历史意义
这是 AI 行业的历史性时刻:
首个被威胁「供应链风险」的美国 AI 公司:这一标签的使用将开创危险先例,可能被未来政府用于向其他 AI 公司施压。
AI 伦理的现实边界测试:Anthropic 的安全原则在真实商业和政治压力下是否能坚守?这是真实考验。
行业连锁反应:OpenAI、Google DeepMind、xAI 等其他 AI 公司将如何回应类似压力?
民主与 AI 的深层张力:大规模监控和自主武器代表了 AI 最有争议的政府应用场景,这场对抗将这些争议推上了公众视野。
原文:Statement on the comments from Secretary of War Pete Hegseth | 来源:Anthropic 官方博客