OpenAI与美国国防部的合同:安全之利与社会资本成本

OpenAI与美国国防部的合同:安全之利与社会资本成本

OpenAI与美国国防部达成协议,使其在受限网络上运营人工智能,同时揭露了缺乏社会资本的行业成本。

Isabel RíosIsabel Ríos2026年3月1日6 分钟
分享

OpenAI与美国国防部的合同:安全之利与社会资本成本

OpenAI在2026年2月28日宣布,与美国国防部达成协议,在受限网络中部署其人工智能模型,这已经不是理论上的讨论。该合同的公告中明确规定了禁止用于国内大规模监控完全自主武器等条款。同时,Anthropic被标记为供应链风险,政府指令要求在谈判凉薄后的六个月内,联邦机构需移除其技术。

对于企业领导者来说,重要的并不是道德辩论或者决策的外观,而是机制:一个人工智能实验室如何将边界条款转化为市场优势,主权买家如何利用公共采购作为纪律工具,以及行业在未能与最强大监管者建立社会资本时,所展示的结构性脆弱。

当合同术语成为产品,架构变成政治

OpenAI将其与国防部的协议框定为具有明确障碍的部署。根据其公告,合同包括针对国内大规模监控和完全自主武器的明确禁止。为了增加保障,该协议还附带了一系列操作性保障:仅通过云端部署、对其“安全堆栈”保持自主权、OpenAI的人员参与和“在环路中”,以及关于现有法律的“分层”合同保护。OpenAI的首席执行官Sam Altman在社交平台上表示,国防部对于安全表现出“深切尊重”,并主张这一方式基于法律与技术的限制。

至关重要的不是语义,而是交付的工程:通过云的API限制访问,减少在传感器或平台边缘的直接集成可能性。OpenAI国家安全联盟负责人Katrina Mulligan在LinkedIn上明确表示,优先考虑架构而不是文本:技术边界本质上防止了某些用途。

从商业角度来看,OpenAI正在打包一个许多公司声称但少数转化为资产的概念:合规和安全作为产品的一部分,而非法律附加物。当供应商提前定义“不可以做什么”、“如何部署”、“在什么人类监督下”以及结束合同的权利时,便为买家提供了运营和声誉的风险降低。在公共采购中,该风险降低的程度与性能和价格平起平坐。

这里出现了一个更深层的信号,针对所有销售通用技术的公司:“合法用途的人工智能”听起来很宽泛,但在监管市场中,优先权来自于谁能将这种宽泛转化为可验证的控制。换言之,市场在奖励那种设计,使得在不失去治理的情况下能说“是”的能力。

对Anthropic的黑名单及主权买家的真实信息

对比非常明显。在谈判失败后,国防部长Pete Hegseth将Anthropic指定为供应链风险,并发布总统特朗普的指令,要求联邦机构在六个月内移除其技术。Anthropic公开回应称不会改变其在国内大规模监控或完全自主武器方面的立场,并表示将对这一指令提起诉讼。

不去判断动机,运营结果是明确的:主权买家利用了市场B2G中最大影响力的两种工具。首先,将条款争议升级为供应商资格事件。其次,将技术-伦理上的分歧转化为任何希望采购的机构的行政风险。这重新组织了整个生态系统的激励:系统集成商、咨询公司、主要承包商和采购办公室倾向于在风险标签的供应商面前减少曝光,甚至在没有司法裁决之前。

对于这个行业来说,这是市场力量的一课:当你依赖一个同样调控、研究和制定事实标准的客户时,你的“定位”是无关紧要的,如果没有转化为稳定的合作框架的话。根据可获得的报道,OpenAI甚至主张将类似的条款扩展到其他实验室,包括Anthropic,以期减轻冲突。这个举动,超越了竞争,指向一个务实的目标:如果行业任由国家通过单方面决定破坏供应商地图,那么声誉资本的成本和合约风险将为所有人提升。

从C级高管的角度看,关键问题不是政府“是否应该”这样做。相关问题是,依赖一个能够在几天内重新定义战略供应商业务连续性的客户意味着什么。

习惯性盲点:同质化团队设计出脆弱的边界与信任网络

OpenAI与Anthropic之间的紧张关系被解读为原则性的争论。我则把它理解为组织成熟度和制度设计的测试。大多数前沿实验室着重于研究速度、人才积累和模型优势。对于在关键领域推广的采用决定因素——治理、运营控制、可追溯性和持续信任关系——的投资减少了。

这一同质性问题随之而来。当小圈子过于相似时,往往会共享相同的“理性”假设,关于“合理”的谈判条件、哪些让步是可接受的,以及如何解读风险。这些团队也低估了在与那些外部但重要的关键利益相关者(采购官、内部法律顾问、合规负责人、网络安全团队,以及之后在审计中防卫采购的技术官员)之间建设社会资本的成本。正是在外围,这里决定着合同的现实生存。

OpenAI所展示的,强调像仅限于云端的技术限制和在环路内合格人员的方法,正是与这些外围利益相关者进行对话的方式。这里的问题不是如何说服单个政治人物或谈判者,而是如何构建能够承受压力、管理变更和经得起公众审查的信任网络。

对于任何一家希望在受监管行业中销售的人工智能公司而言,这一案例留下了一个不舒服的结论:这些“红线”并不仅仅依赖声明,而是依赖于产品设计、实施架构以及能够执行控制的内部和外部关系网络

被低估的举措:将安全、合同终止与声誉视为经济单位

合同的具体金额并未公开,而这个空白本身就是一种信号。即使没有明确数额,进入受限网络使得OpenAI成为优选供应商,它所面临的障碍不再是模型,而是其在极端限制下的操作能力。这种市场定位在三个维度上具有价值。

首先,降低买方风险。如果供应商保留在违约时终止合同的能力,且限制仅通过云端部署以避免边缘集成,则买方获得的合规故事变得更加可防御。

第二,通过标准化获得竞争优势。通过发布合同语言和边界要求,OpenAI推动其方法成为比较的基准。在采购中,第一个“定义”类别的合同通常会施加非正式标准:其他供应商必须解释为何自己与众不同或更优。

第三,声誉作为可交易资产。Altman承认:“外界看法不好”,由于协议的迅速。不言而喻,这种声誉已经作为成本被内化。在人才稀缺且公众舆论转化为监管压力的行业中,声誉成本并非抽象:它直接影响招聘、留任以及合作伙伴的整合意愿。

对市场其他参与者来说,最可能的情景是分叉。部分供应商将接受“合法使用”框架,配合技术控制和人类监督以捕获政府和国防销售;而另一部分供应商则试图通过更严格的禁令来区分自己,承担在公共采购中被排除的风险。两者的立场都不便宜;都需要治理及社会架构,而许多公司尚未建立。

适用于任何受监管行业的行政令

这一事件不仅仅关乎人工智能与国防。它提醒我们,当监管者与客户是同一个角色时,市场如何表现,以及当技术足够通用时,滥用风险成为产品的一部分。

在这样的环境中生存与增长的公司不是那些宣称更高价值的公司,而是那些将限制转化为工程,并将工程转化为可执行合同,再将合同落实为能够抵抗危机的信任网络的公司。这需要在设计桌上的思想多样性:能够理解产品、安全、法律、公共采购、运营和声誉,并有实质性权威来阻止不可行的实施。

C级高管的指令是具体且可执行的:在下次董事会会议上,观察小圈子的构成,并接受如果所有人都过于相似,必然共享相同的盲点,这使得他们成为即将面临颠覆的牺牲品。

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣