当人工智能进入战争,产品不再是模型而是控制
这篇新闻并不是关于美国政府与技术供应商之间的又一场合同争端,而是关于军事安全应用的前沿人工智能供应链中的权力转变。2026年3月6日,美国国防部取消了与Anthropic签署的两亿美元合同,并将该公司标记为“国家安全供应链风险”,这一标签历史上通常只用于外国对手。在几小时内,五角大楼与OpenAI达成了一项竞争性协议用于机密部署。造成这一转变的直接原因是:Anthropic拒绝取消防止国内大规模监控和在没有显著人类监督下使用完全自主武器的合同保障。
这一操作细节使得事情变得更加严重,因为Claude已经深度集成到美国政府的机密网络、国家核实验室和情报分析流程中,通过Palantir的人工智能平台进行部署。终止合同并不意味着可以卸载已经进入关键流程的系统。因此,五角大楼开启了一段为期六个月的过渡期,以从系统中撤回Claude。
从商业角度来看,这个故事揭示了在容错性极低的情况下,人工智能是如何被“产品化”的。在消费领域,产品就是性能;而在防务领域,产品即性能加控制:谁来决策、如何限制、如何审计以及当模型出错时如何反应。
五角大楼并不是在购买人工智能,而是在购买操作选择权
2026年1月9日,国防部发布了其人工智能加速战略,被描述为最近最为激进的策略。该文件设定了七个“里程碑”项目——包括自主蜂群和人工智能驱动的战斗管理——并提出了一项核心要求,解释了此次碰撞的原因:所签署的模型必须在公开发布后30天内可部署,并可用于“所有合法目的”。
这句话“所有合法目的”才是真正的产品要求。在一个对手快速演变策略和技术的环境中,买方希望避免每当出现新的使用案例时就需要重新谈判许可的瓶颈。换句话说,寻求选择权。隐含的赌注在于,这些保障应该更依赖于已被治理的系统,而非依赖于可被解读的合同。
五角大楼的回应,国防部长Pete Hegseth在实施取消时指责Anthropic试图在军事行动中获取“否决权”,并认为其立场与美国原则不兼容。抛开修辞,采购逻辑清晰可见:国防希望寻求能够接受广泛框架并在运营框架内解决使用限制的供应商。
这里出现了一种企业领导人能迅速认同的张力。当人工智能系统成为关键基础设施时,客户希望最小化依赖和摩擦。而当供应商担心其技术在其认为不可接受的场景中被使用时,便试图通过条款来保护自己。这种碰撞并非偶然,它是人工智能不再只是工具,而是能力的症状。
Anthropic的红线使安全问题变成了架构问题,而非营销问题
Anthropic提出了两个不可谈判的条件:绝对不允许对美国公民进行大规模监控,绝对不允许在没有显著人类监督的情况下使用完全自主武器。根据报道,五角大楼将这些类别描述为灰色领域,并认为“逐案谈判不可行”。
这一行政层面的解读严厉却有帮助:在极端情况下,买方惩罚操作模糊性。当一项条款依赖法律解释和政治背景时,在系统需实时操作且跨不同指挥、盟友、战区和分类时,将成为摩擦。
最为揭示性的是,当争端发生时,Claude是当时唯一在五角大楼机密网络上运行的前沿人工智能模型。就是说,所谓的“风险”并不是指Anthropic被排除在外,而是它已经深入其中,然而,仍然有可能供应商对使用或部署的演变施加条件。在关键基础设施中,买方面临的最糟糕情况不是技术故障,而是供应商治理能力的缺乏。
还有一个第二种影响:“供应链风险”标签不仅仅中断一份合同;它可能会波及整合商和合作伙伴。据报道,Google、Salesforce和NVIDIA都是投资者或工程合作伙伴。对任何向政府或国防承包商销售的人来说,供应链风险标签迫使其细分业务、建立内部防火墙,以及在某些情况下,放弃部分市场以保护另一些市场。
在人力影响的关键方面,这一信号同样至关重要:如果针对大规模监控和自主武器的屏障被讨论为“灰色领域”,那么市场就需要可验证的控制设计。如果没有验证,争论归结为信任和叙述。而在防务中,叙事只能维持在危机持续的时间内。
OpenAI和价值单位的变化:从条款到操作控制
在取消合同几小时后,五角大楼与OpenAI签署了协议。Sam Altman公开辩护称其方法保留了与Anthropic相同的原则,但机制有所不同:接受“所有合法目的”的框架并叠加架构控制。根据引用的信息,OpenAI构建了一个云部署方案,包含一层自有安全机制,五角大楼同意不取消,并在机密环境中集成了获得认证的人员,负责操作和维护保护措施。
如果这在实践中得以维持,那么这是产品的变化:模型成为一个组件,真正的产品则是一个包裹,包含部署、监控、限制、响应和在极端条件下的维护。
对于首席财务官或风险负责者来说,企业的类似情况却瞬间明了。在受监管行业中,企业已经意识到“购买人工智能”其实就是购买一个完整的系统:访问控制、可追溯性、记录、偏见评估和在突发事件时的上报机制。国防将在那一逻辑的基础上推向极限,尤其是在一个日益加重的因素下:操作激励更倾向于速度和适应性。
这场争端还揭示了前沿人工智能市场的细分。在2025年7月,四家公司获得了最多高达两亿美元的潜在合同:Anthropic、OpenAI、Google和xAI。在这一棋盘上,一些供应商接受了广泛的使用条款,而其他则要求明确禁止条款。这不再是哲学讨论,而是关于如何定位风险和如何实现高价值细分的商业决策。
实际成本在于“脱钩”和谁控制依赖
在报道中一个埋藏的数据具有比任何标题更大的分量:从机密网络中撤回Claude需要六个月。一位被引述的官员将其描述为一个巨大的卸载痛苦。这句话总结了大型机构中人工智能的政治经济。
一旦一个模型连接到分析流、文档、情报评估和操作建模,依赖性便变成了结构性的。成本不再在模型的许可证上,而是在流程的重新设计、用户的培训、连接器的设置、分类的调整、验证和安全的重新认证上。“退出”的花费变得与“进入”的花费同样高。
当退出代价高昂时,治理便成为杠杆。因此,讨论不再只是关于谁有最好的模型,而是关于谁提供了更好的连续性、控制与合规性保障。五角大楼试图通过“供应链风险”标签来以硬性合同和声誉解决此事。Anthropic试图通过合同明确限制来解决。根据报道,OpenAI通过设计控制和操作条件来实现。
此外还涉及到一个操作组成部分:据报道,美国中央司令部在Epic Fury行动中使用了Anthropic的人工智能,该行动是美国与以色列联合对伊朗的专门行动,用于情报评估、目标分析和操作建模。这并不证明某个供应商的技术优势,而是验证了真实集成。而真实集成是这些斗争发生的战场。
对于民用市场来说,这一启示令人不安但有帮助:关于保护措施的对话不能止步于“原则”或“承诺”。必须依赖可验证的机制、分散的责任和可追溯性。如果一个组织无法证明其如何在压力下限制系统,那么它就不掌控该系统;它只是在等待。
领导者的窗口:将人工智能转变为可测量治理的增强智能
从我的视角来看,这一事件确认了一个转变:人工智能正在从软件转变为战略基础设施。在这一转变中,竞争优势不再是获得模型的能力,而是治理该模型的能力而不阻碍其运行。
对于企业领导人来说,这变为三个具体决策。
首先,将“模型能力”与“控制能力”分开。很多公司购买性能后又临时拼凑审计、限制、记录和事件响应。在敏感领域,这就是反向投资。治理必须从第一天起作为产品进行购买和设计。
其次,设计有计划退出的依赖关系。如果在没有资金限制的环境中,解除一个模型的连接需要六个月,那么在公司中可能需要更长时间。可移植性、内部标准和集成架构是财务策略,而非IT决策。
第三,强调增强智能作为一种操作纪律:显著监督、决策可追溯性和清晰责任。在关键系统中,效率若无意识地扩大错误,错误便会转化为损害。
这个市场已进入一个阶段:数字化加速了采纳,失望在控制未准备好时出现,而颠覆则发生在治理变得比模型更有价值时。技术必须通过可测量的控制和负责任的访问来赋能人类判断,民主化能力而不放任伤害。










