我写下这些话是有一个明确的主旨:在国防领域,人工智能不仅仅是争论模型的质量。这场竞争涉及到如何融入指挥链、公共采购以及一个客户不愿妥协其行动边界的法律责任制度。
2026年2月27日,美国国防部发布备忘录,要求其指挥官在180天内将Anthropic的Claude模型从“关键系统”中移除,此前国防部已取消了一项金额高达2亿美元的合同,计划在机密军事网络中部署人工智能,具体情况CBS新闻有报道称。相关消息描述非常直接:2月24日,国防部长Pete Hegseth给Dario Amodei,Anthropic的首席执行官,提出了一个最后通牒,要求排除禁止用于大规模国内监控和完全自主武器的保障措施。Amodei拒绝了。那一天,同样,唐纳德·特朗普总统在Truth Social上发布了一项命令,要求所有联邦机构“立即”停止使用Anthropic的技术,五角大楼在为期六个月的临时豁免内得以保留。
事态在2026年3月4日进一步升级,五角大楼正式将Anthropic指定为“国家安全供应链风险”,即刻生效,限制其在国防部合同中的使用。Anthropic随后对此提起诉讼,指控特朗普政府违反《行政程序法》,对其进行报复,以及缺乏《第五修正案》规定的正当程序。CBS的报道中,首席财务官Krishna Rao警告2026年可能面临“数十亿美元”的潜在收入损失,包括与五角大楼相关的1.5亿美元年度经常性收入,以及因与国防承包商的关系而导致的额外影响。
乍看之下,这似乎是原则上的冲突,实则是产品定义的碰撞。
客户购买的行动边界使保障措施变成了摩擦
五角大楼并不是在抽象地购买“一个有用的模型”。他们是在购买机密环境和实际任务的操作能力,需要与情报、目标和指挥流程相结合。CBS的报道显示Claude的使用已经很深广:印太司令部(INDOPACOM)被称为“主要用户”,内部估算显示,移除的时间介于三到十二个月之间,因为需要重新配置数据输入和依赖关系。
对于Anthropic来说,“红线”被融入产品的限制中:禁止大规模国内监控和完全自主武器。在传统企业市场中,这些限制可以成为声誉差异化和风险管理的方式,特别是对于那些害怕品牌受损或诉讼的客户。而在国防领域,正如CBS的框架所指出的,国防部要求“在任何合法使用上全面灵活”,认为应由美国法律而非公司的政策来主导军事的运用。
这是许多商业团队所低估的一个细微差别:当一个组织“购买”一种技术以执行主权决策时,所感知的价值是可控性、可用性和在压力下的可预测性。一个保留在极端情况下说“否”的系统引入了非线性成本:这不是基于每个Token或许可证的成本,而是在最大需求时的不确定性成本。
因此,这场讨论不是抽象的安全辩论。它变成了一个公共采购的问题:如果买方得出结论,供应商限制了使用,他们就将供应商重新定义为供应风险。“供应链风险”这个标签并不是在描述技术故障,而是在描述客户的心理合同与产品设计之间的不兼容。
“供应链风险”标签重塑了供应商经济
3月4日的指定是一个转折点。CBS指出其声明的范围非常有限:Claude仅在“作为直接一部分”的国防部合同中被禁止,而亚马逊、谷歌和微软仍然可以继续商业性地提供Claude,排除国防工作。这种准确性反映了两个方面的利害关系。
首先,因为它为产品和渠道的细分创造了激励。大型云服务公司可以隔离国防的接触,吸收特定需求,保护其民用业务。对于像Anthropic这样的公司,其增长依赖于高交易量和机构的信誉,风险标签对商业分发的影响较小,而对验证“严肃性”的核心影响则非常大:在机密环境中的部署。
其次,它改变了与其余国防工业的谈判。CBS提到与合作伙伴Palantir的影响,Palantir在Maven Smart System中使用了Claude。在权力游戏中,这运作得如同一项网络命令:当国防部限制一个组件时,任何想要向国防部销售的承包商必须重新设计其结构。在实践中,政府成为需求的建筑师,并强迫了很少明示支付的迁移成本。
从金融角度看,1.5亿美元的年度经常性收入在国防部合同中只是显而易见的部分。更大的风险是二次效应:如果承包商和民用机构(CBS提到财政部和GSA的计划暂停业务)内化了提供商可能因法令而被排除的事实,那么采用该提供商的成本就会瞬间增加。这不仅是因为其质量更差,而是因为持续性变得不确定。这种不确定性转会为条款、审计、强制性“备用计划”,最终导致较少的承诺意愿。
Anthropic的诉讼试图阻止这一地位变化。但,随着诉讼的进展,日常经济引导着:采购团队和集成商更倾向于选择政治摩擦更低的选项。
供应商更换揭示的不仅是个别事件,而是市场模式
CBS记录的时间线在象征意义上十分严谨。在2月27日的备忘录发布几个小时后,OpenAI与五角大楼签署了协议。尽管正式的禁令在推进,但CBS报道说,2月28日发起的“史诗风暴行动”仍短期内使用Claude进行情报和目标识别。这样的“被禁用”和“依然在用”并非不一致,而是依赖。
当一个组织陷入技术依赖时,完全的替换从来不是瞬间完成的,尽管命令再严格。整合、许可、数据流、用户培训,更重要的是,流程操作,人工智能已经改变了工作方式。因此,内部移除的估算在三到十二个月之间,即使官方的时间表是180天。
这一事件揭示了在创新中反复出现的模式:客户并不是在签订“安全人工智能”的口号。他们是在租赁三种非常具体的东西:快速部署、执行控制和出错时的政治保障。Anthropic提供的是一种带有内置限制的人工智能,而国防部则需要一种在关键时刻不会重新协商其行为的人工智能。
在这种冲突中,最终胜出的是那些能把自己的产品变成服从基础设施的公司。这并不意味着“没有控制”;而是买方定义的控制,可以被买方审核和管理。在国防领域,那些企图将保障措施作为单方面政策的公司必须接受这样的事实:这种选择将作为一种服务条件,客户可能将其分类为风险。
对于其他市场的影响是复杂和实用的。如果大型公共买方因使用限制而正常化“供应链风险”类别,那么任何拥有强大拒绝政策的企业人工智能供应商将面临一种新类型的评估:不仅将考量精确度、延迟或成本,还将考量顺应客户法律框架的能力,而不强加自身的否决权。
对于人工智能公司的教训是将治理设计成产品
CBS报道说,在过渡期间,Anthropic以名义成本继续向国防部供应Claude,并且就保障措施进行了“富有成效”的最近对话。这一点暗示着双方的桥梁并未完全烧毁:即便在冲突中,买方仍需要持续性,而供应商需要时间为自己的立场辩护。
但结构性的转变已经发生。国防部已经要求指挥部自报Claude的使用情况,并优先考虑过渡。这种强制性库存做法是一种控制依赖的机制。在商业设计方面,剩下的问题简单明了:客户希望供应商销售一个组成部分,而不是决定它的使用。
对于人工智能领域的首席执行官或首席财务官,这重新排列了产品地图。
1) 治理不再是文书工作,而是合同接口。如果限制仍然存在于模型“内部”,并且没有接受客户的管理层,客户会将这种限制视为对操作主权的损失。
2) 政治风险转化为收入风险。Krishna Rao关于“数十亿美元”损失的警告不仅取决于一个合同,还取决于公共采购和国防领域的声誉传播。
3) 迁移是价值的一部分。如果移除一个模型需要三到十二个月,那么采用的真实成本包括退出,而不仅仅是进入。那些将过渡工具、审计和兼容性进行打包的企业能够减少买方的恐惧,赢得招标。
人工智能初创企业的典型盲点是认为模型就是产品。在高风险纵向中,产品是一个完整的系统:权限、可追溯性、操作持续性、使用规则以及最终的控制权。
我最后要点明一项关于客户行为的技术性看法:这一事件表明,五角大楼所租赁的人工智能能力是为了增强其在法律和指挥链中的行动边界,任何包含单边抵制的供应商,最终只会被视为可以替代的原料,而非战略合作伙伴。












