资讯

Anthropic 与美国国防部的讨论:关于 AI 在国家安全中负责任使用的立场

Anthropic CEO Dario Amodei 发表声明,阐明公司与美国国防部讨论的背景和立场:参与是为了确保 AI 在国家安全领域被负责任使用,设定明确红线(不用于自主致命武器和直接针对平民的行动),透明参与好过无原则缺席。

2026/2/283分钟 阅读ClaudeEagle

Anthropic CEO Dario Amodei 近期就公司与美国国防部(Department of War)的讨论发表了一份公开声明。这份声明在 AI 行业引发广泛关注,因为它展现了 Anthropic 在国家安全 AI 应用上的复杂立场。

核心立场:强调负责任使用

Anthropic 的立场核心是:AI 在国家安全领域的应用应该有明确的边界,公司参与此类讨论是为了确保 AI 被负责任地使用,而不是推动无限制的军事 AI 化。

Dario Amodei 在声明中强调:

  • Anthropic 与国防部的讨论聚焦于防御性行政性用途,而非进攻性武器系统
  • Claude 不会被用于直接伤害人员的场景
  • Anthropic 保留对 Claude 使用的限制权,任何合作必须符合公司的使用政策

为什么 Anthropic 选择参与而非回避

这是一个深思熟虑的战略选择:

参与的理由

  1. 塑造规则而非被规则塑造:如果前沿 AI 公司缺席,国防部将转向监管更少、安全标准更低的供应商
  2. 防御性应用的真实价值:网络安全防御、情报分析、后勤优化等应用可以减少而非增加冲突
  3. 透明度优于沉默:参与并公开讨论比秘密拒绝更有利于公众监督

Anthropic 的红线

  • 不参与自主致命武器系统的开发
  • 不用于直接针对平民的行动
  • 不绕过人工监督和决策

AI 安全研究者的视角

这个决策在 Anthropic 内部和 AI 安全社区中引发了讨论。一些研究者担忧:

  • 一旦建立了政府合作关系,边界可能逐渐模糊
  • 「防御性」和「进攻性」的区分在实践中往往不清晰
  • 参与会产生将军事需求正常化的风险

Anthropic 的回应是:这种担忧是合理的,这正是为什么他们选择透明地参与并设定明确条款,而不是在没有原则约束的情况下让这种合作发生在其他地方。

给客户的建议

对于正在评估 Claude 用于政府或安全相关应用的客户,Anthropic 的建议:

  1. 仔细阅读使用政策:明确哪些场景是允许的
  2. 保持人工监督:AI 辅助决策,人类做最终判断
  3. 考虑伦理影响:不仅看技术可行性,也考虑应该如何使用
  4. 与 Anthropic 直接沟通:高风险应用在部署前与团队确认

更广泛的行业背景

这一讨论发生在 AI 与国家安全交叉点日益受到关注的背景下:

  • OpenAI 已修改政策,允许军事应用(明确排除进攻性武器)
  • Google 的 Project Maven 风波后,公司在政府 AI 合同上更谨慎
  • Palantir、Anduril 等公司专注于国防 AI,形成不同的市场生态

Anthropic 选择的路径是:有条件参与,透明设限,而不是全面回避或无条件接受。

结语

Dario Amodei 在声明中承认,在这个问题上没有简单的答案。Anthropic 的选择是在两个不好的结果之间寻找一条较少危害的路径:要么完全缺席(让 AI 在没有最高安全标准的情况下进入国防领域),要么无限制参与(放弃对 AI 使用的道德把关)。

这种立场在道德上是否成立,还在持续的讨论中。


原文:Statement from Dario Amodei on our discussions with the Department of War | 来源:Anthropic 官方博客

相关文章推荐

资讯Anthropic 回应战争部长 Hegseth:供应链风险认定「于法无据」,将提起法律诉讼Anthropic 回应战争部长 Hegseth 将其列为供应链风险的威胁:坚守禁止大规模国内监控和完全自主武器两条红线,指出认定「于法无据」(仅能限制战争部合同使用),宣布将提起法律诉讼,个人用户和商业客户完全不受影响。2026/3/2资讯美国国防部长威胁将 Anthropic 列为供应链风险:事件始末与客户须知美国国防部长 Pete Hegseth 威胁将 Anthropic 列为供应链风险,事件源于双方在大规模国内监控和完全自主武器问题上的谈判僵局。Anthropic 解释供应链风险认定的实际法律效力、对不同类型客户的影响,以及为何两项威胁存在内在矛盾。2026/3/1资讯Anthropic 拒绝美国国防部要求:坚守两条红线,面临「供应链风险」威胁Anthropic CEO Dario Amodei 公开声明:拒绝国防部要求 Claude 支持大规模国内监控和完全自主武器,面临被列为「供应链风险」威胁仍不让步。详述两条红线的原因、国防部威胁的内在矛盾,以及这一事件对 AI 行业的历史意义。2026/3/1资讯Anthropic 官方复盘:Claude Code 质量下降事件的三个真实原因(2026 年 4 月)Anthropic 在 4 月 23 日发布罕见的工程透明公告,详解过去一个月 Claude Code 变笨、失忆、额度消耗异常的三个独立根因:推理努力等级悄悄从 high 降到 medium、缓存 Bug 导致推理历史每轮丢失、减少冗长的 System Prompt 修改影响编程质量。所有问题已于 4 月 20 日修复,向所有用户重置使用额度。2026/4/26资讯Claude Opus 4.7 正式发布:编程能力大幅提升,CursorBench 得分 70% vs Opus 4.6 的 58%Claude Opus 4.7 发布详解:CursorBench 得分从 58% 跳至 70%,Rakuten 生产任务解决数 3×,XBOW 视觉精度从 54.5% 跳至 98.5%。覆盖新增 xhigh 努力级别、/ultrareview 命令、Auto Mode 扩展,以及从 Opus 4.6 迁移的 Token 使用变化注意事项。2026/4/22资讯Claude Code 桌面版全面重设计:多 Session 并行工作 + Routines 云端自动化详解2026 年 4 月 14 日 Anthropic 重磅发布:Claude Code 桌面应用全面重设计(支持多 Session 并行)+ Routines 云端自动化功能研究预览。从 AI 编程工具升级为 AI 运营平台的关键一步,含 Code Tab、Routines 使用方法和典型场景。2026/4/16