Anthropic 对峙五角大楼:AI 安全底线之战

你每天用 Claude 写代码、做 code review、debug,但你知道这个工具的母公司正在和美国国防部正面对峙吗?
Anthropic CEO Dario Amodei 刚刚公开拒绝了五角大楼的最后通牒——宁可丢掉 2 亿美元的合同,也不让 AI 被用于自主武器和大规模监控。这场对峙的走向,可能直接影响你每天打开的那个 AI 编程助手还能不能继续用。
以下是这场对峙的完整还原,以及它对每一个 AI 开发者意味着什么。
一、发生了什么:60 秒看懂这场对峙
事情的经过不复杂,但每一步都够戏剧性。
2025 年 7 月,Anthropic 和美国国防部签署了一份价值 2 亿美元的合同。Anthropic 成为第一家将 AI 模型部署到军方保密网络中的公司。注意,这不是什么象征性的握手合作——Claude 被直接塞进了军方的机密任务工作流里。
2026 年 2 月,事情炸了。
美军在一次抓捕委内瑞拉前总统马杜罗的行动中用上了 Claude。怎么接入的?通过 Palantir——没错,就是那个大数据军事承包商。Anthropic 知道后第一反应是质问国防部:你们拿我们的模型干了什么?
五角大楼的反应极其不满。军方认为,这种事后审查"完全不具备可行性"。
国防部长 Pete Hegseth 直接下了最后通牒:周五之前,要么同意让军方不受限制地使用 Claude,要么失去所有政府合同。
更狠的是,五角大楼还祭出了终极武器——威胁援引冷战时期的《国防生产法》(DPA)。这个法案原本用于战时物资调配,如果启动,政府可以强制 Anthropic 为军方定制无安全护栏的模型版本。
Dario Amodei 的回应只有一句话:"我们出于良知不能同意。"

二、两条底线在争什么:技术人的翻译
"AI 安全"这四个字听起来很抽象。但 Anthropic 画的这两条线,用工程师的语言翻译一下,其实非常具体。
底线 1:拒绝大规模国内监控
想象一下这个场景:Claude 被接入一个政府系统,这个系统可以实时分析你的社交媒体、通讯记录、位置数据。不是针对某个犯罪嫌疑人的定向调查,而是对所有公民的批量处理。
用咱们熟悉的话来说:这相当于给一个 API 直接上了 admin:* 权限——没有 audit log、没有 rate limit、没有 scope 限制。一个裸奔的 God Mode。
Anthropic 的立场是:这种不加区分的大规模部署,与民主社会的基本原则不兼容。
底线 2:拒绝完全自主武器
Amodei 给出了一个极其精准的论证:
"我们军事结构中的宪法保护,依赖于有人会拒绝执行非法命令的理念。完全自主武器无法做出这样的区分。"
翻译成工程师语言:这是一个没有 human-in-the-loop 的生产环境部署问题。
在座的都知道,关键系统跳过人工审核意味着什么。部署一个没有人类介入就能自主开火的 AI 系统,说白了就是把一个没经过充分测试、不可解释的模型直接推上 prod——只不过这个"生产环境"挂掉的代价不是 500 报错,是人命。
Anthropic 自己也承认,Claude 的可靠性不足以避免潜在的致命错误——这可能导致事态意外升级或任务失败。
有意思的是,五角大楼同时对 Anthropic 使用了两种威胁:一种把它列为"安全风险",另一种却说 Claude 是"国家安全关键"。Amodei 指出,这两个说法本质矛盾。

三、AI 公司的灵魂拷问:谁说 Yes,谁说 No
这场对峙不是孤立事件。如果把四家主要 AI 公司摆在一起看,你会看到一幅非常有趣的行业分裂图。
| 公司 | 军方合作态度 | 具体行动 | 结果 |
|---|---|---|---|
| Anthropic | 有条件合作 | 坚持两条底线,拒绝最后通牒 | 面临合同损失和 DPA 威胁 |
| xAI (Grok) | 完全接受 | 同意"所有合法目的"不受限使用 | 立即获得机密系统准入 |
| OpenAI | 模糊地带 | 今年初取消了军事用途禁令 | 持有国防部合同,边界待定 |
| 内部分裂 | DeepMind 员工致信要求设立"红线" | 管理层尚未明确回应 |
说到 OpenAI,值得展开讲讲。2025 年底 OpenAI 拿下了五角大楼一份价值 2 亿美元的合同,并悄悄把使用政策里的"禁止军事用途"条款改成了"允许防御性国家安全应用"。ChatGPT 通过 GenAI.mil 平台被整合进军方的非保密网络。换句话说,OpenAI 的态度是:我不画红线,具体怎么用咱们再谈。
最绝的是时间节点。Amodei 在五角大楼被施压的同一天,马斯克的 xAI 已经签好了协议——Grok 直接进驻机密系统,军方要什么条款全都 OK。
这就是坚持底线的商业代价。当你的竞争对手愿意说 Yes,你的 No 不只是一种道德选择,更是一种商业风险。
但反过来看,共和党参议员 Thom Tillis 说了一句意味深长的话:"Anthropic 正在尽力帮助我们避免自己犯错。"民主党参议员 Mark Warner 则表示他对五角大楼"霸凌一家领先的美国公司"感到"深感不安"。
当两党都觉得五角大楼做过头了,这件事就不仅仅是一家公司的选择,而是整个行业的十字路口。

四、对开发者意味着什么
你可能觉得这是大公司和政府之间的博弈,跟自己没什么关系。但仔细想想,它和你每天的工作有三层联系。
第一,工具选择即价值选择。
你选用的 AI 工具,背后公司的伦理立场正在变成一个实际的产品风险。如果 Anthropic 因为这场对峙被列为"供应链风险",使用 Claude 的企业可能面临合规压力。反过来,如果你的公司坚持不使用缺乏安全护栏的 AI 工具,你的选择范围可能会缩小。
第二,你的代码的终点你控制不了。
想想看:你用 Claude Code 重构一个 React 组件,军方用 Claude 分析一次军事行动的情报——在模型眼里,这俩事儿没有任何区别,都只是不同的 prompt。当你的编程助手和军事应用跑在同一个模型上,"我只是个写代码的"这话还说得那么轻松吗?
第三,开源 vs 闭源有了新维度。
过去我们讨论开源主要看代码是否公开。Anthropic 事件给这个讨论增加了一个新维度:使用权的控制。一个闭源模型的公司可以拒绝特定的使用场景,但开源模型一旦发布就失去了控制权。这到底是好事还是坏事?
开发者社区对这件事的反应很分裂。HN 上 740+ 条评论里,几种声音特别有代表性:
"如果五角大楼真的援引 DPA 强制一家公司交出技术,这将是对第一修正案的严重挑战。代码是言论自由。" —— HN 高赞评论
"我在 Anthropic 工作。我们很多人入职就是因为这家公司愿意在安全问题上画线。如果这条线被抹掉,你会看到大规模离职。" —— 匿名 Anthropic 员工
也有不少人持反对意见,认为 Anthropic 拿了 2 亿合同又挑三拣四是"道德表演",军方才是正当客户。还有一派纯技术视角:不管你怎么限制 API 调用,军方拿到开源模型照样能用——闭源限制本质上是安全剧场。
作为开发者,你至少可以做这些事:了解你常用的 AI 工具背后公司的使用政策;关注 AI 治理的政策动态;在技术社区参与讨论,而不是假装这些事和技术人无关。

五、技术中立是个伪命题
从曼哈顿计划的物理学家,到 Google "Don't Be Evil" 的消亡,历史反复证明同一件事:技术从来不是中立的。
构建工具的人,对工具的使用负有某种程度的责任。这不是法律问题,而是工程伦理问题。Anthropic 的选择,本质上是在回答一个古老的问题:如果你制造的锤子被用来伤人,你有没有责任?
在 AI 时代,这个问题比以往更尖锐。因为 AI 不是锤子——它能自主行动、自主决策,而且它的能力每个月都在指数级增长。锤子不会变得越来越聪明,但 AI 会。
留给每个开发者的思考:如果你构建的系统被用于你不认同的目的,你会怎么做?
Anthropic 给出了它的答案。你的呢?
参考资料
- Anthropic 官方声明
- HackerNews 讨论 (1,387 points, 740 comments)
- CNBC: Pentagon threatens to invoke Defense Production Act
作为开发者,你怎么看 AI 工具的军事化使用? 你会因为一家公司的伦理立场而选择或放弃它的产品吗?欢迎在评论区聊聊你的看法。
Subscribe for updates
Get the latest AI engineering posts delivered to your inbox.