当客户要求主控钥匙:人工智能安全与联邦采购的冲突
这场冲突发生得迅速而且声势浩大。2026年2月27日,唐纳德·特朗普总统下令 所有联邦机构 停止使用Anthropic的人工智能技术。这一指令出现在国防部长皮特·赫格塞斯宣布五角大楼将Anthropic视为“供应链风险”,此标签历史上通常用于极端情况,通常与外国行为体相关。随之而来的直接后果是 2亿美金 国防部合同的终止,依据相关报道。
冲突的导火索并不是技术故障或泄密,而是一种对“真实产品”所存在的不可调和分歧。Anthropic拒绝为某些军事用途撤除其Claude模型的安全限制,主张这将涉及大规模的国内监视或无人武器的无监督使用。五角大楼则坚持认为,决定使用工具的权利应属于国家,强调该技术应可用于“所有合法目的”。
从外部看,这似乎是合规性的讨论。但从内部看,那是权力架构的碰撞:谁控制系统界限。这个细节彻底改变了美国人工智能的公共采购逻辑。
“风险”指定转变商业争议为排除条款
报告显示,这是一场短时间内的升级。在这期间,赫格塞斯发出了最后通牒:如果Anthropic不撤回使用限制,将面临制裁,包括被认定为风险以及可能使用《国防生产法》。26日,首席执行官达里奥·阿莫代拒绝了这一要求,但表示愿意继续谈判。27日,国防部宣布的指定到来了,随后是总统的命令,要求 所有机构 停止使用Anthropic。
最激进的部分不仅是取消2亿美金的合同,而是其引发的多米诺效应。国防部长宣布,任何与军方有合作的承包商、供应商或合作伙伴都不能维持与Anthropic的“商业关系”。 这一表述,一旦应用于联邦支出的现实时,便不是一项罚款,而是一种封闭市场的条款。在现实中,这迫使向国防部门销售的公司在与五角大楼的关系与与Anthropic的关系之间做出选择。
对于一家科技提供商来说,这种措施改变了竞争的游戏规则。你不再是以精度、成本或支持进行竞争;你在竞争的是可接受性。任何科技公司的战略风险显而易见:当标签为“供应链”时,讨论不再是性能,而是归属。
Anthropic在两条战术上作出了回应:将指定视为“法律上不成立”,并宣布将在法庭上提起诉讼。此外,还争辩称,这种指定应该仅限于国防部合同中使用Claude的情形,而不应扩大至承包商在其他客户中使用的情形。这一辩护揭示了真正的战场:范围。
政府人工智能中的真实产品不是模型,而是模型的治理
在我的创新分析工作中,我常常观察到,买家并不是“采购”技术;而是雇佣来实现进展。在这里,政府所追求的进展并不是一个更灵巧的聊天机器人,而是在一个关键假设下的操作能力:在情境需要时重新配置界限的可能性。
根据报道,Anthropic试图出售一种即使对最强大的客户也能生存的带有安全边界的人工智能。这在民用市场上是一个属性:减少声誉风险,限制滥用行为,使其在受监管环境中更易被采用。但在国防领域,激励则不同。购买该技术的机构不仅需要性能;他们需要自由裁量权。自由裁量权意味着,从产品的角度看,是对主控钥匙的访问权。
与五角大楼的冲突使得许多人工智能公司试图以模糊性处理的紧张关系钉在了现实中:提供先进的能力,同时保留红线。在公共部门,这些红线并非被视为“供应商的伦理”;而是被视为施加于任务的外部限制。五角大楼的声称工具应服务于“所有合法目的”,并不是一个语义上的细节:这是将人工智能转变为国家基础设施而非具有自己政策的私有产品的尝试。
公司面临的盲点在于认为其差异化在于模型。在联邦采购中,真正的差异化在于整体方案:控制、审计、操作可解释性、支持、责任协议,以及谁对配置拥有最终决策权。当分歧变得关系存亡时,政府不再重新谈判服务协议;而是启动排除机制。
立即的财政影响是2亿美金的合同;战略上的损害是对市场的信号
失去一个2亿美金的合同,无论是从资金还是叙事角度,都是痛苦的。但最严重的冲击在于这一措施向市场传达的信息:如果联邦政府决定某个供应商不可接受,这一决定可能会迫使第三方为继续获得国防支出而断绝联系。
这改变了三个群体的计算。
首先,对于承包商来说,整合第三方模型的成本不仅仅是技术问题,而是变成了持续性的风险。一个被“审查”的供应商增加了合同的不确定性。尽管关于该范围的法律讨论仍在继续,但任何承包商的立即激励就是最小化风险暴露。
第二,对于其他人工智能供应商:其信号是,使用政策不是市场营销的附属物,而是资格的条件。一些将调整其立场以更好地与“所有合法目的”兼容;另一些则会试图通过允许不同使用配置的产品结构进行自我保护。无论哪种情况,成本都会上升:为政府构建变体、流程和控制代价巨大。
第三,对于投资者和企业客户:国家与公司间的关系可能会重新定义国内人工智能公司的轨迹。将“供应链”指定应用于一家美国企业是前所未有的,因此为行业引入了声誉波动。
与此同时,政治因素已经进入机构层面。参议院情报委员会副主席马克·华纳对该指令进行了批评,四名与国防政策相关的参议员呼吁双方降低温度,并将谈判延伸至五角大楼施加的限期之外。 其背后清晰的讯息是:在华盛顿,即使技术决策也带有治理的解读。
这场危机带来的模式:人工智能在国防中作为主权能力购买,而非软件
如果这段故事仅被解读为“安全”与“使用自由”之间的冲突,那么必然会忽略其本质机制。国家试图将先进模型转变为主权能力,而主权意味着在法律授权下对系统行为的控制。而供应商Anthropic则试图保留一种设计,将某些限制视为产品的一部分,即使客户是国家。
在创新层面,这预示着联邦市场将重新排序,分为以下三个趋势。
首先,预计将对允许精细化控制的架构产生更高需求:不再仅仅是“允许/禁止”。客户希望获得模式、权限、可追溯性和环境隔离。讨论并不会消失,反而会加速技术化。
其次,能够在极端合规中运行的供应商价值将迅速提升,而不会使每一个部署变成哲学上的重新谈判。对于公共买家来说,这种摩擦即是成本,也是风险。
第三,选择标准将不仅仅依靠性能,还将依据与国家使用政策的合同对齐。短语“所有合法目的”将成为采购的准则,而非口号。
Anthropic已表示将对该指令提起诉讼。虽然这一过程可能会耗时且结果重要,但市场的教训已经传开:联邦政府不仅是在采购技术,而是在采购在其法律框架内的操作服从能力。
这里买方的行为表明,所“雇佣”的工作并不是一个先进的语言模型,而是将人工智能作为任务工具随时提供国家完全控制。










