Anthropic对五角大楼的诉讼揭示了控制的代价

Anthropic对五角大楼的诉讼揭示了控制的代价

Anthropic与美国国防部之间的冲突不仅仅是200百万美元的合同争执。这是一场关于谁来定义当买方具有监管、预算和叙述权力时,人工智能使用界限的斗争。

Andrés MolinaAndrés Molina2026年3月13日6 分钟
分享

Anthropic对五角大楼的诉讼揭示了控制的代价

当一家人工智能公司向政府销售产品时,它不仅仅是在出售计算能力和有用的回答。它是在出售一个持续性的承诺:模型明天仍然可用,供应链不会因政治原因而断裂,购买方不会面临条件的突然变化。在这个承诺中,包含了信任。

Anthropic刚刚把这种信任放在了与美国国防部的正面冲突中心。根据Fortune的报道,该公司在2025年7月与五角大楼签署了一份价值2亿美元的合同,但八个月后,特朗普政府将其指定为“供应链风险”,命令联邦机构停止使用Claude,并对与军事机构有关的任何活动施加压力。争端的起因是Anthropic拒绝解除安全限制,这些限制根据所引用的消息源,阻止了诸如自主武器和对美国公民进行大规模监控的使用。Anthropic提起了两项诉讼:一项与第一修正案的权利有关,因其立场而遭受报复,另一项则是对“风险”标记的起诉。

从表面上看,这似乎是科技行业政治化的又一情节。从经济心理学的层面来看,这则是一个更为麻烦的提醒:在政府是客户兼仲裁者的市场中,真正的“产品”是减少机构焦虑。而这种焦虑并不能通过基准测试来缓解。

当买家是监管者时,产品转变为操作服从

在纸面上,方程式非常简单。政府需要强大的模型来执行国防和安全任务。供应商通过价格、性能和部署能力竞争。Fortune甚至指出,Claude在多个相关的企业基准测试中超过了ChatGPT,这解释了为什么Anthropic在企业市场中取得了进展。

但在实践中,购买机制更像是声誉风险的谈判,而不是技术竞赛。政府部门不仅评估准确性或延迟:它评估供应商在比赛进行中是否有可能改变规则,或者关系是否会演变为公众冲突。这种计算并不是在传统意义上的“理性”;它是一种防御性反应。在等级结构中,主要的激励是避免出现上头条的事件。

基于这种逻辑,Anthropic的安全限制起到了双重信号的作用。对市场的一部分来说,这是一种保障:降低了灾难性使用的概率,并由此减少了丑闻的风险。而对另一部分来说,这是一种不确定性条款:表明供应商对某些应用保留否决权。报告描述了五角大楼寻求“无约束访问”,而拒绝导致了事态的升级。

根本问题在于,当买方具备超越合同的惩罚能力时,风险不再仅限于合同层面。“供应链风险”这一称号并不是简单的商业终止。它作为一种标签,会影响到第三方。而在高度依赖公共采购的市场中,这一标签相当于提高了选择你的心理成本。

“风险”标签是一种链式认知摩擦武器

Fortune描述了一种多米诺效应:承包商和大型技术供应商可能会面临压力,被迫验证“零接触”Anthropic的产品,以维护与政府的关系。这里出现了我作为应用于商业的消费者行为分析师最感兴趣的现象:企业客户决策不仅基于效用,还基于便于辩解性。

在模糊场景中,组织依赖启发式方法。其中一种最常见的启发式是权威:如果国State将某物标记为风险,即使原因在法庭上有争论,这一标签也会成为采购委员会、法律团队和合规部门的心理捷径。没人在合同续订中想成为那个“逆行者”,即便产品更优。

这类摩擦无需明文禁止便会扼杀采纳。每家公司不必收到正式指令。只需感知到在审计、未来投标或合同续订中可能产生的成本。从行为上看,对不确定损失的恐惧往往比具体的技术收益更加沉重。对许多高管来说,在面对监管者辩护决策的预期压力下,法律或网络安全任务性能的更好表现并不足以补偿。

结果是一个生存风险,该报告直言不讳地框架道:危险不仅在于失去2亿美元,更在于如果客户感觉使用Claude使其在政府中变得“复杂”,将失去在美国的商业势头。

这种模式在其他行业中不断重演:当内部协调为解释一个选择所需的成本超过了产品的增量收益时,获得首位的供应商是那个能够减少心理劳动的公司。在企业采购中,“可辩护性”是产品的一项特性,即使它没有出现在技术规范中。

与中国的竞赛加剧了这一困境,因为对手在没有保护措施的情况下竞争

Fortune提供的地缘政治角度增添了一层讽刺性的战略。Anthropic和OpenAI都指责中国实验室通过未授权的方式提炼模型,而根据该报告,这些版本在没有限制的情况下被运用于如解放军、伊朗及其他对手。

从激励的角度来看,这推动各国政府最大化能力。如果对手能够“无保护”地接触强大的模型,国防机构的自然推动是要求相同或更多的能力。与Anthropic的冲突正是由此产生:公司希望维持边界;军事客户希望消除边界。

这里出现了一种许多董事会低估的紧张:安全作为商业属性在买方支付平静时发挥作用。然而,在国家安全方面,买方支付的是操作优势。这一差异改变了价值的感知。

对Anthropic来说,限制旨在避免重大损害并保护社会,包括防止对公民的监控。而对五角大楼而言,这些限制可能会被视为损失选择性的机会,而选择性是一种战略资产。从行为学的角度出发,买方对限制表现出厌恶:当有人被认为在限制可用行动菜单时,会产生恢复控制的愿望,即使完整菜单未被使用。

因此,回应并非简单的更换供应商。根据消息来源,应用”风险”标签并扩展到所有联邦机构的禁令。这种强度有一个明确的解读:更不只是解决购买,而是对市场进行纪律约束。

人工智能企业市场的教训是信任设计

这个故事通常被叙述为“安全”和“力量”之间的伦理战争。而我将其视为在一个高度可复制的市场中,信任架构的争夺战,其换取的成本虽然技术上复杂,但最终是政治层面的。

在报告中,OpenAI被视为自然的受益者,“填补合同的空缺”。不必做出更进一步的推断:当一个供应商处于风险区时,竞争对手无需完美,只需在买方看来更不成问题。这是一种残酷的竞争。

对于行业的其他参与者,这个案例提供了三点运营启示:

首先,使用界限不是“声明”的,而是作为采纳包的一部分进行“谈判”。如果一家公司希望保持限制,就必须将其转化为对买方的利点,而不是道德上的限制。这需要转化:更少论述,更多合同设计、审计指标和清晰的例外处理流程。

其次,向政府销售需要声誉方面的冗余。好是不够的。还需要让自己变得难以攻击。 标签“风险”之所以有效,是因为它简单、引人注目且在30分钟的会议中难以反驳。竞争这些市场的公司必须投资于可验证的叙述、证书、可追溯性和治理,这对此刻放宽简化空间。

第三,诉讼本身是一种产品行为。诉讼可能保护原则,也可能提升他人的焦虑。财务问题并不仅仅是Anthropic在法庭上赢或输。还取决于市场在等待模式中停留多长时间,以及多少客户宁愿在争议持续开放时选择不接触。

在行为经济学中,采纳发生在试图摆脱现状的推力超过对变化恐惧及习惯力量时。在这种情况下,追求更好性能的冲动,与一种更强大的制度恐惧竞争:与被贴上“风险”标签的供应商保持一致。

赢家将在于降低恐惧的公司,而非赢得基准战的公司

这一冲突对企业人工智能领导者发出一个明确的警告:技术性能可以激发欲望,但很少能购买平静。在监管或公共采购行业,平静是价值的主导成分。

Anthropic对于保持限制可能有合理的安全理由,而政府可能有合理的战略理由希望消除这些限制。决定经济影响的不是意图的纯洁,而是如何将这种紧张转化为客户的摩擦,后者只是想要操作的稳定。

来源中讨论的先例也推动了一个不安的现实:如果国家学习到可以将供应链标签作为对国内供应商的纪律工具,整个类别将变得更加脆弱。私营买方察觉到这种脆弱,往往集中选择那些看起来不易遭受报复的供应商。这可能加速行业整合,而不管谁拥有更好的产品。

在这个市场中获胜的战略不是由模型的闪耀定义的,而是围绕模型建立的信任工程。这种工程要求在承诺无限能力上投入更少,而在降低可核实的恐惧方面投入更多:连贯性、治理、追溯性和可接受的使用途径,以便有否决权的行为者使用。最后,生存的C级团队是那些能够及时发现何时将全部资源投入到让其产品发光,而不是或者在有纪律的投资上熄灭阻碍客户购买的恐惧和摩擦。

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣