这是 AI 行业迄今为止最具历史性的企业与政府对抗事件。Anthropic CEO Dario Amodei 发表公开声明:Anthropic 拒绝美国国防部提出的两项要求,即使面临被列为「供应链风险」的威胁,立场不会改变。
背景:Anthropic 是国防领域的深度参与者
Anthropic 并非国防领域的局外人。根据 Dario 的声明:
- Anthropic 是第一家在美国政府机密网络中部署前沿 AI 模型的公司
- 第一家在国家实验室部署 Claude 的公司
- 第一家为国家安全客户提供定制模型(Claude Gov)的公司
- Claude 目前广泛部署于国防部及其他国家安全机构,用于情报分析、建模仿真、作战规划、网络行动等任务
Anthropic 还放弃了数亿美元收入,切断了与中共关联企业的合作,关闭了中共支持的网络攻击,并积极倡导对华芯片出口管制。
两条红线:绝不退让
Dario 明确说明,两种 Claude 用途从未出现在与国防部的合同中,现在也不应加入:
1. 大规模国内监控
Anthropic 支持合法的境外情报和反情报任务中使用 AI。但针对美国公民的大规模国内监控与民主价值观不相容。
核心问题:强大的 AI 让散布各处、单独看来无害的数据(行动轨迹、网页浏览记录、社会关系)可以被自动化、大规模地拼合成任何人的完整生活画像——不需要获得搜查令。
2. 完全自主武器
部分自主武器(如当前乌克兰战场使用的)是民主防御的重要工具。但完全自主武器(彻底将人类排除在目标选择和交战决策之外)目前并不安全:
「今天的前沿 AI 系统根本不够可靠,无法用于完全自主武器。我们不会明知提供一个让美国士兵和平民处于风险的产品。」
Anthropic 已提出与国防部合作开展 R&D 以提升系统可靠性,但国防部未接受。
国防部的威胁
国防部声明只与接受「任何合法用途」、取消上述安全措施的 AI 公司签约,并发出多重威胁:
- 威胁将 Anthropic 移出国防部系统
- 威胁将 Anthropic 列为**「供应链风险」**——这一标签历史上只针对美国对手,从未公开用于美国本土企业
- 威胁援引《国防生产法》强制移除安全措施
Dario 指出这后两项威胁存在内在矛盾:一个将 Anthropic 标记为安全风险,另一个将 Claude 标记为国家安全必需品。
Anthropic 的立场
「无论国防部施加多少恐吓或惩罚,都不会改变我们在大规模国内监控或完全自主武器问题上的立场。我们将在法庭上挑战任何供应链风险认定。」
同时,Anthropic 表态:如果国防部最终选择更换供应商,Anthropic 将配合平稳过渡,确保正在进行的军事规划、行动或关键任务不受干扰。
为什么这件事重要
这是 AI 行业有史以来最公开的企业伦理对抗事件:
- 一家 AI 公司明确拒绝政府合同要求,并公开解释原因
- 两条红线直指 AI 最危险的应用场景:国内监控和自主武器
- 面对供应链风险标签的威胁仍不让步,表明企业在 AI 安全上的真实底线
- 形成行业先例:其他 AI 公司将如何回应类似压力?
原文:Statement from Dario Amodei on our discussions with the Department of War | 来源:Anthropic 官方博客