当人工智能成为“供应链风险”:军事控制与产品护栏的碰撞

当人工智能成为“供应链风险”:军事控制与产品护栏的碰撞

美国国防部将Anthropic标记为“供应链风险”,重新定义了人工智能的购买规则和市场结构。

Clara MontesClara Montes2026年3月6日6 分钟
分享

当人工智能成为“供应链风险”:军事控制与产品护栏的碰撞

“供应链风险”的标签过去通常用于明显面临破坏或颠覆风险的硬件、通信或软件。这周,美国国防部将其应用于一家国内人工智能公司:Anthropic PBC,根据Engadget报道,生效时间为2026年3月5日。Anthropic回应称将通过法律手段挑战这一决定。这场争执不仅仅是法律问题,而是关于在关键操作中,人工智能模型的控制权归谁:买方、供应商,还是监管框架。

引发冲突的事实很明确。根据报告,该公司与国防部的谈判持续了数周,旨在结构化一个使用合同。在Anthropic要求保证其模型不会用于对美国公民的广泛监控或自主武器的部署后,谈判破裂,这两项保护措施是产品本身所具备的。2026年2月27日,国防部长皮特·黑格塞斯在社交媒体上发布消息称,Anthropic是一个供应链风险,前总统唐纳德·特朗普也指示联邦机构停止使用其技术。3月5日,国防部正式确认了这一决定,Anthropic的首席执行官达里奥·阿莫德伊表示,他们不认为该措施是“法律上有效”的,没有其他选择只能诉诸法律。

对任何C级领导者来说,重要的不在于戏剧本身,而在于前例:将“使用条款”的争议转变为公共采购的排除工具。这改变了所有希望向国家出售人工智能的供应商的风险地图和商业计算。

指定作为杠杆:从技术安全到合同权利

市场的某些部分将此视为采购的一个插曲,但实际上超出此范围。“供应链风险”类别作为治理的快捷方式:买方不是在谈判条款、价格和例外,而是启动一个机制,可以驱逐供应商出合同流。

Engadget指出,可能的法律依据是10 U.S.C. § 3252,该法律赋予国防部长在与国家安全系统相关采购中排除来源的权力,以降低供应链风险。该框架要求书面决定保护国家安全的必要性,且认为其他较不干扰的措施在合理范围内不可行。对商业的影响在于,这条路径不是谈判,而是一种地位的变化。而这种地位重新排列了整个承包商生态系统的激励。

国防部的操作信息也明确。黑格塞斯以指令的形式表达:军队不会接受供应商“插入指挥链”,限制“合法”使用关键能力,因为这将危及战斗人员。无论是价值判断,这句话定义了一种采购立场:人工智能被视为军事基础设施,而非具有使用政策的企业软件。如果国家购买“能力”,则不购买“受限的能力”。

对Anthropic来说,其历史赌注则不同:以信任与控制作为产品的一部分出售。其保护措施不是市场营销的附加部分,而是功能性约束。但当该设计与要求“所有合法用途”自由使用的客户冲突时,技术的争议变成了工业政治。

可以预见,现在开启的是一场合同战斗:如果一家公司因为不在使用限制上妥协而被标记为供应链风险,那么“护栏”从竞争优势转变为国防领域的商业风险。这种变迁是本案的核心。

Claude在保密环境中的依赖、替代与变更成本

报告中指出一个解释紧张关系的细节:直到不久前,Anthropic提供的人工智能系统是唯一能够在国防部的保密云中运行的。此外,“Claude Gov”已经成为国防人员因其易用性而广受欢迎的工具。当一个供应商达到这种地位时,真正的成本并不在于合同,而是集成:工作流程、培训、例程和期望。

因此,指定引发了一个悖论。如果买方已经依赖这个工具,突然排除它会损害内部生产力,并迫使重新配置流程。报道指出,国防部“严重依赖”该软件,此举给那些将其纳入日常工作的团队带来了操作挑战。

这种事件的经济后果通常有两条路径。第一是替代品的加速:与政府达成协议的竞争者填补空缺。简报提到OpenAI,主要竞争对手,获得了与国防部的协议。第二条路径是在压力下重新谈判:供应商“调整”其立场以保持对这一最强大的客户的访问。

在这里,有一个细节可以降低普遍的恐慌:阿莫德伊指出,该指定将狭义地适用于政府采购,并不会阻止公众使用Claude。根据Engadget,微软对CNBC表示,会继续在不涉及国防的项目中使用Claude,经过对其法律地位的审查。

从商业角度来看,这一情况将市场分为两个通道。通道A:国防和敏感合同,使用的“政策弹性”低,买方的权力大。通道B:私营部门和商业案例,企业可以维护其安全和限制的叙述作为价值的一部分。问题在于声誉和监管信号在通道之间流动;即使正式的影响有限,采购中的心理影响可能不会如此。

国防部真正“购买”的是什么,Anthropic又在销售什么

当我分析技术采纳时,我回到一个实际的问题:用户通过该产品“雇佣”的是什么进步。在这种情况下,有两个不同工作且目前不兼容的用户。

国防部在雇佣无摩擦的操作能力:可以在秘密环境中使用的人工智能工具,具有迅速部署、广泛用例和机构控制。短语“用于所有合法目的”作为产品说明。如果军方认为某种用途是合法的,他们希望供应商在设计上不予阻止。

Anthropic则在销售除了性能外的其他东西。它正在销售一个风险控制的包裹,某些使用类别被排除。这是一种提议,在民用市场中可以转化为认购优势、客户的声誉风险降低和内部用户的信任增加。但面对一个主要考核指标为“能力”的买方时,限制不再是“安全”,而成了“干扰”。

这一案件揭示了一个我们将重复看到的模式:企业级AI正在从“软件”转变为“决策基础设施”。而决策基础设施则吸引了主权争议。当一个模型成为组织神经系统的一部分时,买方寻求全面控制;供应商寻求保护其品牌和使用政策;监管者寻求国家安全叙述。

这种紧张关系无法通过声明来解决。它需要契约与产品的结构:分段版本、独立环境、审计,尤其是关于在极端场景中使用模型时谁承担风险的清晰。

承包商和政府AI市场的多米诺效应

简报强调,根据适用的法律工具,打击可能会在承包商生态系统中产生波及。在根据FASCSA(联邦采购供应链安全法)下的命令下,具有某些FAR条款的承包商可能会被禁止在执行联邦合同时使用该供应商的产品,除非获得豁免。针对国防部的合同,文本提到与10 U.S.C. § 3252相关的DFARS 252.239-7018条款。

执行的要点如下:尽管Anthropic与国防部处于双边争议中,成本可能会转移至整个供应链。使用Claude作为生产力或支持组件的承包商可能被迫重新设计其技术架构,以免影响国防合同。而当承包商做出选择时,很少选择“最佳”产品,而是选择最小化合同风险的产品。

在实践中,这往往偏向于提供两种东西的供应商:保证连续性和愿意在不受制造商施加使用限制的情况下运营,或至多在与买方的一致下进行可谈判的限制。也推动市场朝着一个尴尬的标准发展:“可向国家销售”可能需要放弃某些不可谈判的保护措施。

Engadget指出,尽管指定仍在,双方近期进行了“富有成效”的对话,Anthropic正在探索保留其两个例外的同时为国防部服务的途径,并为如果不可能的过渡做准备。这句话是整个故事中最商业化的,它表明诉讼并未终止谈判,而真正的游戏在于谁率先让步以及以何种叙述。

结构性影响十分明确。从现在起,任何希望进入政府市场的AI供应商都必须在设计产品时思考一个操作性问题:哪些限制将被视为安全,哪些将被视为对客户控制的干扰。

此案对AI创新方向的影响

如果这一事件以法院判决告终,判决结果将十分重要。如果以和解结束,合同将变得更加重要,因为这将成为非正式模板。但市场上的学习已经摆在面前。

首先,公共采购的AI正进入一个治理成为产品一部分的阶段。不仅仅是“更好的模型”。商业问题在于与客户控制体系的兼容性。

其次,“供应链”的概念正在扩展,不仅包括技术破坏风险,还包括战略依赖使用条件化的风险。随着这种解释的发展,国防部门将越来越像至关重要的基础设施,而非软件即服务(SaaS)。

第三,对于Anthropic以及任何希望以使用限制作为原则的公司来说,出路不是坚持技术的优越性,而是构建一个组合和叙述,使这些限制转化为买方也愿意支付的价值,或接受某些客户“购买”的是另一种东西。

暴露出来的机构用户的行为模式是明确的:当客户意识到他们在控制和运营能力方面雇佣人工智能时,任何内嵌的限制便成为摩擦。在这种情况下,用户真正“雇佣”的工作并不是一个语言模型,而是无中介的使用权限

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣