Anthropic CEO Dario Amodei 近期就公司与美国国防部(Department of War)的讨论发表了一份公开声明。这份声明在 AI 行业引发广泛关注,因为它展现了 Anthropic 在国家安全 AI 应用上的复杂立场。
核心立场:强调负责任使用
Anthropic 的立场核心是:AI 在国家安全领域的应用应该有明确的边界,公司参与此类讨论是为了确保 AI 被负责任地使用,而不是推动无限制的军事 AI 化。
Dario Amodei 在声明中强调:
- Anthropic 与国防部的讨论聚焦于防御性和行政性用途,而非进攻性武器系统
- Claude 不会被用于直接伤害人员的场景
- Anthropic 保留对 Claude 使用的限制权,任何合作必须符合公司的使用政策
为什么 Anthropic 选择参与而非回避
这是一个深思熟虑的战略选择:
参与的理由:
- 塑造规则而非被规则塑造:如果前沿 AI 公司缺席,国防部将转向监管更少、安全标准更低的供应商
- 防御性应用的真实价值:网络安全防御、情报分析、后勤优化等应用可以减少而非增加冲突
- 透明度优于沉默:参与并公开讨论比秘密拒绝更有利于公众监督
Anthropic 的红线:
- 不参与自主致命武器系统的开发
- 不用于直接针对平民的行动
- 不绕过人工监督和决策
AI 安全研究者的视角
这个决策在 Anthropic 内部和 AI 安全社区中引发了讨论。一些研究者担忧:
- 一旦建立了政府合作关系,边界可能逐渐模糊
- 「防御性」和「进攻性」的区分在实践中往往不清晰
- 参与会产生将军事需求正常化的风险
Anthropic 的回应是:这种担忧是合理的,这正是为什么他们选择透明地参与并设定明确条款,而不是在没有原则约束的情况下让这种合作发生在其他地方。
给客户的建议
对于正在评估 Claude 用于政府或安全相关应用的客户,Anthropic 的建议:
- 仔细阅读使用政策:明确哪些场景是允许的
- 保持人工监督:AI 辅助决策,人类做最终判断
- 考虑伦理影响:不仅看技术可行性,也考虑应该如何使用
- 与 Anthropic 直接沟通:高风险应用在部署前与团队确认
更广泛的行业背景
这一讨论发生在 AI 与国家安全交叉点日益受到关注的背景下:
- OpenAI 已修改政策,允许军事应用(明确排除进攻性武器)
- Google 的 Project Maven 风波后,公司在政府 AI 合同上更谨慎
- Palantir、Anduril 等公司专注于国防 AI,形成不同的市场生态
Anthropic 选择的路径是:有条件参与,透明设限,而不是全面回避或无条件接受。
结语
Dario Amodei 在声明中承认,在这个问题上没有简单的答案。Anthropic 的选择是在两个不好的结果之间寻找一条较少危害的路径:要么完全缺席(让 AI 在没有最高安全标准的情况下进入国防领域),要么无限制参与(放弃对 AI 使用的道德把关)。
这种立场在道德上是否成立,还在持续的讨论中。
原文:Statement from Dario Amodei on our discussions with the Department of War | 来源:Anthropic 官方博客