当安全与供应链冲突:五角大楼如何重塑军事人工智能市场
五角大楼与Anthropic之间的争议不再仅是合同纠纷,而是转向了通常针对外部威胁的领域。根据2026年3月4日收到的通知,五角大楼将Anthropic指定为美国供应链的风险,这一决定本质上阻碍了与承包商的合作,并将一份价值2亿美元的军事人工智能工具合同置于危险之中,其中包括模型Claude Gov。由Dario Amodei领导的公司回应称,将在法庭上对该措施提出异议。
引人注目的不仅仅是这一升级。更为重要的是五角大楼采用的手段。五角大楼并没有仅仅选择终止或重新谈判合同,而是施加了一种最高的监管和政治信号。根据现有的信息,冲突加剧是因为在Anthropic拒绝解除限制后,谈判破裂,这些限制会阻止Claude在对美国公民的广泛监视或完全自主武器中的使用。一名国防部官员表示,指定一事立即生效,尽管报告本身指出,Claude的工具在2026年3月6日的伊朗行动中仍在使用。
这个故事并不是关于一家初创企业与国家间的斗争,而是关于操作权力:谁来决定人工智能在敏感任务中使用的界限,尤其是,哪些市场杠杆会被激活以迫使对齐。
从合同到制裁:如何一个使用争议转变为排除机制
问题的起源是一个合同和一个具有具体优势的产品:Claude Gov在五角大楼的机密云上运行,而直到最近,这一兼容性使其成为希望在安全环境中部署人工智能的团队的首选。这一技术细节解释了为何冲突对双方都造成伤害。如果模型已经整合到机密流中,改变它并不是典型的“供应商更换”——这需要验证、重新训练、安全检查和重新构建集成。
双方关系在数月内恶化,并在2月最后一周爆发。根据报告,国防部长Pete Hegseth在2026年2月27日警告称,将有为期六个月的过渡期,以将人工智能工作迁移至其他替代方案。发言人Sean Parnell指定了一个具体的最后期限:同周五的东部时间下午5:01。与此同时,五角大楼还通过信件通知国会,认为Anthropic的限制给供应链带来了“国家安全风险”。
Anthropic坚称无法接受一个在其看来为法律语言打开保护措施的大门的框架。由此,连锁反应随即发生:这一指定威胁了价值2亿美元的合同,并迫使合作伙伴关系的中断。文本提到的最明显案例是与Palantir Technologies的合作终止,特别是在美国军方在伊朗行动中部署的Maven Smart System中集成Claude。
市场信号非常清晰。一场关于“使用条件”的讨论变成了“供应风险”的事件。这一语义转换带来了后果:加大了争议的成本,减少了谈判空间,因为讨论的不再只是合同的条款,而是作为供应商的公司的合法性。
新的战场是使用控制,而非模型精确度
在公众的人工智能讨论中,过分强调了对基准测试的竞争。在这里,核心问题不在于此,而是极端场景下的使用控制。从实用的角度来看,Anthropic想要设定明确的限制,以避免两类部署:对公民的广泛监视和完全自主的武器。五角大楼通过其发言人表示否认对禁止用途的兴趣,并声称广泛监视是违法的。即便如此,冲突依然存在,这表明分歧不仅仅关乎“意图”,更关乎如何界定使用权限,以及在操作环境迫使下,谁有能力说“不”。
这一市场上初创企业的战略后果相当棘手:政府买方在国防方面不仅仅购买能力。他们购买在危机条件下、摩擦最小且能清晰规定例外情况的可用性。当一家公司保留对某些使用进行阻止的权利时,国家视其为运营风险,即使欲阻止的使用是有争议的或直接违法的。
这一点是通常在公众采购中的“人工智能伦理”讨论中的盲点:初创企业的内部框架在PowerPoint上可能完美,但在执行中却脆弱,如果客户要求的特权与这些政策相矛盾。在国防领域,谈判更类似于对控制的原则,而非SaaS许可。
产品经济也在变化。随着客户要求不受限制的访问,供方承担了声誉、人才和治理的风险。而当供方施加限制时,则承担商业排斥的风险。这种紧张关系解释了为何这一案例成为参照:一旦采用开始,就没有干净的退路。
一个市场在转身中重新排列:OpenAI、Google和xAI作为替代者
报告指出,前总统Donald Trump在上周要求联邦机构停止与Anthropic的合作,财政部和政府服务管理局宣布停止业务的意图。几乎立即,OpenAI在CEO Sam Altman的领导下,在发出命令后与五角大楼达成协议。在一份泄露的内部备忘录中,Amodei指责其时机上的机会主义,随后为该文件致歉。
抛开戏剧性,重要的是替代的机制。由于国防部宣布为期六个月的过渡期,出现了一个“强制市场”以进行替换:预算、整合和试点都转向接受买方条件的人。文本提到Google和Elon Musk的xAI作为其他竞争者,获得军事合同并在谈判中寻求将其整合在“无条件”的条款中。
对于一家初创企业来说,这重新定义了防御性护城河的概念。Claude Gov因兼容机密云而拥有操作优势。但如果买方决定资助替代方案并加速其认证,该优势将会变得暂时。当国家进行采购时,也可能会付出破除依赖关系的成本。
此外还出现了一个额外模式:解耦作为治理工具。断绝合作的命令影响了第三方,例如Palantir,这些第三方正在基于Claude进行建设。在企业市场中,这已经很痛苦。在国防领域,它也传达了向整个供应链的纪律信息:与“争议中”供应商的整合可能成为合同风险。
来自初创企业的解读:短缺不再是计算,而是许可
作为一名应用于商业的未来学家,我看到了许多创始团队没有很好建模的悖论。人工智能正在降低产生分析、文本、软件和支持的边际成本;这是丰盈的部分。短缺正在转向另一个层面:许可。法律许可、政治许可、合同许可、在受监管环境中部署的许可。
这也解释了为什么供应链的指定如此强大。它不讨论模型“是否优秀”。而是讨论供应商“是否可以存在”。这是一个领域的转变:从性能到合法性作为基础设施。
在6Ds框架下,该行业已经深度数字化,并正在经历的失落阶段对于那些期望线性和超然的采纳来说。破坏不仅是技术性的;它还是合同性的。去货币化也在推进:每一个新竞争者在安全环境中的部署能力都在侵蚀价格,并将模型转变为替代品。当以前要求整支团队的能力被打包到接口和API中时,去物质化就会到来。然而,当接入依赖于认证和机密整合时,民主化却停滞不前。
对于领导者和投资者而言,操作性学习非常清晰:在受监管的领域,产品不仅仅是模型。它是完整的合规、审核、使用控制、数据治理和在政治压力下运作的能力。未能从一开始设计这一完整包的公司最终处于弱势,因为买家可以将冲突重新定义为国家安全事务。
Anthropic决定坚持限制,这一定位可能会增强其在重视保障的人才和客户中的品牌效应。同时也开启了一个高成本的法律和商业前沿。另一方面,五角大楼通过展示其愿意使用强硬手段来要求条件,获得了与市场其余部分的谈判权。
这一案例意味着什么:政府人工智能的标准将成为“控制架构”
这个故事中最重要的部分不在于诉讼本身,而是在于可能从中产生的隐含标准。如果“无条件访问”的叙述成为向国防销售人工智能的标准,市场将趋向于两种供应商类型。
第一组将接受广泛的条件,优先考虑合同和快速扩展。该组能够抓住收入和成交量,但在出现在有争议的使用或更换政府和标准时面临声誉成为负担的风险。第二组将试图以明确的限制进行竞争,期待愿意为治理和可追溯性付费的客户。该组可能会排除在国防公共采购之外,集中于民用机构、受监管企业或国际市场。
根本上的紧张关系在于,国家希望避免对单一供应商的依赖,同时又希望供应商没有在关键时刻否决部署的能力。因此,为期六个月的过渡期不仅仅是一个时间框架,而是重新配置依赖关系的一种工具。
Lauren Kahn(乔治城大学)的评论认为Claude是“良好的能力”,其撤回将是“痛苦的”,这表明尽管存在冲突,该产品依然在创造操作价值。这加强了这样的论点:冲突并不是基于实用性,而是基于控制和治理。
国防领域的人工智能市场正在进入一个阶段,其中竞争优势在于设计能够放大人类判断的系统,具有可审计的限制和与安全环境的兼容性,而不是将人工智能变为用于自动化高影响决策的黑箱。从6Ds的角度,此行业正在从能力的破坏性转向货币化,而短缺则转向许可、认证和使用框架;技术必须凭借可验证的控制和更广泛的访问权力赋权于人类。










