五角大楼与Anthropic的“红线”碰撞:人工智能的复杂依赖问题
这一系列事件迅速又引人深思。2025年7月,Anthropic与美国国防部签署了一份价值2亿美元的合同,该合同旨在部署Claude,被媒体称为首个获得批准用于机密网络的尖端人工智能模型。该协议设有两个明确的限制:禁止将Claude用于对美国公民的大规模国内监视,以及禁止将其用于完全自主武器,即能够在没有人类干预的情况下选择和攻击目标。
2026年1月,国防部长彼得·赫格塞斯的人工智能战略备忘录推动了一次合同转变:要求在五角大楼的人工智能合同中使用“任何合法用途”的语言。到2月底,压力加剧,提出了最后通牒和法律威胁。2月27日,鉴于截止日期未达成协议,总统唐纳德·特朗普发布了一项指令,要求“立即停止”在联邦机构中使用Anthropic的技术,已有合作方则给予6个月的退出时间。同一天,赫格塞斯将Anthropic指定为国家安全的供应链风险,并增加了一项附加限制:任何与军方合作的承包商或合作伙伴不得与Anthropic保持商业往来。
随后发生了转折。在2026年3月初,报道显示谈判重新开始。与此同时,一个消息来源提到一个“惊叹时刻”:国防领导人意识到Anthropic的不可或缺性及失去访问权限的运营风险。被《财富》引用的五角大楼官员埃米尔·迈克尔提到了一句关键的话:“我想要所有人。我希望给他们相同的条件,因为我需要冗余。”
从我对创新和“客户”行为(在这种情况下是国家)的视角来看,重要的不是政治戏剧本身,而是机制:当一个组织将人工智能模型整合到分析、规划和操作中时,它不再是在购买一个产品。它开始购买运营连续性。
真实的冲突并非是“人工智能是还是不是”,而是使用的治理
公共讨论可以被解读为原则的碰撞,但从商业角度来看则是使用权的碰撞。Anthropic坚持将两个保护措施视为不可谈判:禁止大规模国内监视和禁止在完全自主武器上使用。五角大楼试图以“任何合法用途”的总括来替换它们,然而根据Anthropic的评估,这一语言会使得对保护措施的忽视变得“随意”。
在典型的企业谈判中,“允许的使用”是一项附录。但在这里,它是产品的核心。因为在尖端人工智能中,价值接口不仅仅是模型;它是定义在高风险环境中可以使用该模型的权限系统、可追溯性、审计和责任。
五角大楼试图做些类似于许多大组织在感受到供应商的重要性时所做的事情:将明确界限的合同转换为宽泛的许可证,以减少未来的内部摩擦。在他们的逻辑中,“任何合法用途”简化了合同治理,避免了每当教义、操作或地缘政治环境发生变化时就需重新谈判。
而Anthropic则在捍卫另一种保护资产的方式。既是出于声誉,也是因商业和监管暴露。如果一个供应商同意其产品可以在超出其安全框架的场景中使用,那么它最终出售的将比模型更昂贵:出售的是不确定的责任。
细微之处在于,双方都在优化不同的风险。客户希望得到灵活性和控制;供应商则希望有可验证的限制。这个碰撞并不证明其中一个立场是“好”或“坏”。它证明了当人工智能进入关键任务时,这些条款不再是法律问题,而是商业架构。
“供应链风险”的认定将合同争议转变为连续性问题
“国家安全的供应链风险”标签如同信号弹:不需要绝对确定即可产生影响。在短期内,它在整个承包商和分承包商网络中引发不确定性,他们无法承受合规模糊带来的风险。
报告提到,考虑了国防生产法和根据10 U.S.C. § 3252排除Anthropic参与国家安全系统的分包合同的权力。同时也提到Anthropic坚持观点,即使这一认定在法律上成立,也可能限制Claude在国防部合同工作中的使用,但不一定限制其一般商业工作。
从商业角度来看,这一细微差别的重要性不如直接影响:一旦依靠Claude进行分析、规划、网络操作和模拟的组织,以及一系列利用Claude向五角大楼提供服务的供应商,面临着路线冲突。突然无法从运行在敏感环境中的模型中更换,不仅因为成本,还因为迁移、重新验证、流程适应、培训和内部重新认证的时间。
因此,“惊叹时刻”中的那句话同样可信且充满动态,无需任何修饰。当对关键流程中集成的一部分关闭访问时,“客户”意识到他们所购买的并不是一件工具,而是一个运营架构。
在消费领域,当一项服务转变为习惯,随后成为基础设施时会发生类似的情况。在国防领域,当一项能力成为分析的“骨干”时也如此。五角大楼的反应表明Claude已达到这一门槛。
战略教训:国家正在学习将人工智能视为关键基础设施进行采购
埃米尔·迈克尔那句“我需要冗余”的引言揭示了技术采购成熟度的模式:重点不再是“最好的模型”,而是通过多样化获得的韧性。在实践中,这意味着保持活跃的替代方案(如Anthropic、OpenAI等),确保没有一项中断、合同争议或条件变化使组织失去能力。
这一原则在能源、电信和物流领域是很常见的。在尖端人工智能中,由于市场还在像购买传统软件一样运作,因此应用此原则的速度开始滞后。Anthropic的案例证明了这一类比已经不再适用。
首先,因为这里的“人工智能”并不是一个孤立的模块:它已部署在机密网络中并用于敏感功能。其次,当供应商是少数能够满足技术和安全要求的公司之一时,其谈判权力会发生变化。第三,使用治理不是通过合同检查框来解决的,而是变成系统设计的一部分。
如果五角大楼坚持对所有人标准化“任何合法用途”,它试图将尖端人工智能变成一种合同商品。而现在的市场并不是商品。供应商较少,且有些供应商有明确的红线。
可能的结果是公共采购朝着多层次的采购模型发展:
- 公共基本条款以便于可移植性。
- 按使命或领域的使用附录。
- 真正的供应商冗余,而不仅仅是在纸面上。
所有这些并不保证和谐,但可以降低合同争议转变为运营危机的风险。
Anthropic为五角大楼提供的真正“产品”是运营信任,而不仅仅是模型性能
报告提到,Anthropic已在硅谷标准下走在“国防友好型”前沿:它率先在机密网络中部署模型,为国家安全客户提供个性化模型。同时也提到该公司拒绝了大量收入,因而切断了与中国共产党相关公司的访问渠道,并终止了Claude在国家赞助的网络攻击中的滥用尝试。
没有必要将这一切转化为史诗故事来提炼商业教训:五角大楼并非仅仅在购买“文本生成能力”。它在购买一个更广泛的信号,涉及一致性、响应和控制。在高风险市场,这些信号等同于一种货币。
一旦政府要求“立即停止”并将供应商标记为风险,双方的货币都会贬值。
- 对于五角大楼而言,公共中断向剩余工业基础传达了连续性可能依赖于当时的政策。
- 对于Anthropic而言,风险标签会在承包商中种下怀疑,即使后续谈判达成了协议。
这里出现了一个令人不安的原则:购买力并不消除依赖性,当资产稀缺且整合深入时。杠杆不再是交易量,而是投资组合的设计和迁移能力。
“惊叹时刻”是买家与实施现实碰撞的信号。这是一种从采购威胁转变为使命操作的区别。
必然的方向:设计合同以购买能力而不购买冲突
这一事件为任何正在将人工智能融入核心流程的组织(无论公私)提供了指导。
1) 将对完全控制的渴望与持续性的需求分开。 绝对的合同控制通常会最大化与保护使用界限的供应商之间的摩擦。而通过冗余和切实的替代机制最大化连续性。
2) 将保护措施视为产品的一部分。 在尖端人工智能中,使用限制并非偶然,而是风险和声誉的重要组成部分。对于买方来说,这也是保持内部纪律的一种方式:强迫记录、合理化和审计敏感用法。
3) 在需要之前首先建立“选项”。 一旦有了六个月的退出命令,就无法白手起家建立冗余。这需要并行集成、测试、验证和操作培训。
埃米尔·迈克尔提到的这句话指向这一方向:保持“所有人”持有相似条款以维持冗余。这不是多供应商的浪漫,而是购买操作自由。
这一新闻中的机构“消费者”行为十分明显:五角大楼正在购买在高压环境中进行分析和决策的即时且可靠的能力。五角大楼与Anthropic的冲突表明,当人工智能变得不可或缺时,用户真正购买的工作并不是一个更强大的模型,而是具有明确可持续使用限制的操作连续性。












