五角大楼将伦理转化为技术条款,OpenAI捕获合同

五角大楼将伦理转化为技术条款,OpenAI捕获合同

在全球最挑剔的客户要求“任何合法用途”时,优势在于设计可操作的壁垒,而不是单纯宣扬原则。OpenAI理解了这一点:将伦理界限转化为产品与执行。

Tomás RiveraTomás Rivera2026年2月28日6 分钟
分享

五角大楼将伦理转化为技术条款,OpenAI捕获合同

2026年2月27日,OpenAI宣布与美国国防部(在特朗普政府下被重新命名为战争部)达成了一项协议,允许其在受限网络中部署人工智能模型。此消息在国防部长皮特·赫格塞斯(Pete Hegseth)将Anthropic标记为国家安全链条风险的几小时后发布,这一标签实际上使得军事承包商不得与该公司进行商业活动(有六个月的过渡期)。这一序列比头条新闻更重要:这不仅是一次竞标的胜利,更是对局势的改组。

在这种市场中,需求并不是从道德宣言的舒适地带中谈判的,而是从买方的语言出发:操作控制、法律保障和任务持续性。根据报道,Anthropic试图在合同中明确禁止两种具体用途:国内的广泛监控和没有人类监督的完全自主武器。五角大楼拒绝了这种合同结构,要求“任何合法目的的完全无条件访问”。OpenAI接受了买方的框架,但承诺另一个东西:技术保障和一个“安全堆栈”,即政府不会强迫模型执行拒绝的任务。

从产品策略的角度来看,转变是明确的:伦理不再是法律段落,而是实施规范。这一差异决定了谁能够进入受限网络。

合同的真正信号不是合同本身,而是购买标准

山姆·阿尔特曼(Sam Altman)表示,该协议允许模型用于“任何合法目的”,并包含对美国公民广泛监控的保护机制,并确保在人类使用致命武力时的责任。关键细节不是存在限制,而是这些限制在哪里

Anthropic试图将限制固定在合同中。OpenAI将其固定在三层结构中: (1) 已经禁止某些用途的现有法律, (2) 要求致命武力必须经过人工判断的军事政策,以及 (3) 部署中的技术控制。对于战争部这样一个买方而言,这种架构减少了摩擦:保持了他们希望的“合法用途”语言,并把合规性转移到内部治理和技术的结合中。

这不是一个哲学讨论;这是采购。带有明确禁止的合同为供应公司提供了正式的阻止机制。相反,“安全堆栈”被呈现为技术能力和共同运营,没有“合同否决权”。在简报中提到,五角大楼指责Anthropic试图在操作决策上获得“否决权”。这一措辞是对整个行业的信号:买方不仅购买模型,还购买操作从属。

后果是,“标准”将不再是谁拥有最好的通用模型,而是谁能在不将每个例外都转化为法律危机的条件下,以可接受的条件将其打包进入受限环境。在实践中,OpenAI提供了一种更易于客户接受的治理接口。

对Anthropic的阻断是供应链的一招,而不是价值的讨论

对Anthropic的“供应链风险”指控被描述为前所未有的举动。因此,值得将其视为一项实用工具,用于控制一个日益难以购买的市场。

在基础模型成为基础设施的环境中,国家对供应商的态度与对半导体、通讯或网络安全的态度相同:持续性、控制、可审计性、替代性。将一家供应商标签为风险立即重排了激励,因为它迫使承包商和合作伙伴选择阵营,即使有过渡期。

即时的经济效应显而易见,尽管我们没有OpenAI协议的公开数字。我们确实知道冲击的数量级:简报提到了Anthropic在高达2亿美元的谈判。如果这个数字即使不代表Anthropic的大部分业务,真实的打击并非只是失去一份具体合同。而是脱离致力于服务国防客户的供应商生态系统,在该生态系统中,商业兼容性是二元的。

对于OpenAI而言,利益不仅在于“胜利”。它成为了在受限网络中正常化部署模式的供应商。一旦客户在集成、在场工程师和安全流方面投资,改变供应商的成本就提高了。简报称,OpenAI将在五角大楼部署工程师,建立保障架构。这听起来少一些“API销售”,更多的是综合关键服务

对于任何希望向国家销售的初创公司来说,信息不舒服:风险不再仅仅是技术或合规的;作为供应商的“政治可接受性”也是风险。这种可接受性可能在24小时内被定义。

OpenAI进行了高风险实验:将安全转化为可操作特性

在大多数分析都停留在OpenAI“妥协”还是Anthropic“坚持”之上时,我看到了另一点:OpenAI将限制讨论转化为一个可交付的包裹。这就是产品。

阿尔特曼表示,他们将构建技术保障,允许政府拥有“安全堆栈”,而拒绝执行的模型不会被强迫执行。如果这一点按照描述实施,那么OpenAI就不仅是销售一个模型;而是以机构压力下的操作方式来销售一个模型。

这正是防务买方需要内部证明购买的理由:“我们并不是在购买一个黑匣子;我们在购买一个有刹车的系统。”而这样做又不需要被捆绑到可能被解读为对指挥的限制的条款中。

更务实的一点是,OpenAI似乎已经接受,监管和政策环境已经覆盖了部分担忧,而剩下的部分则可以通过工程和流程来缓解。Anthropic试图通过合同封闭风险;OpenAI则试图使其可操作

当然,这种方法是有代价的。当你说“任何合法用途”时,你扩大了潜在用途的空间,同时也扩大了事故的空间。技术保障的承诺变得可衡量,因此可以被客户审计。在受限网络中,故障不会在公开帖文中讨论:相反,它导致失去信任和悄然开除。

有趣的是,OpenAI甚至要求战争部向“所有AI公司提供相同的条款”。这一句话作为竞争覆盖:如果标准被普遍化,OpenAI就减少了作为受优待例外的风险,并将其方法转变为市场规范。

国防市场正在定义先进人工智能的商业语言

这一事件并不是在真空中发生的。简报提到,谷歌和xAI已经获得“合法使用”的合同,并且xAI在同一周获得了受限环境的审批。换句话说,买方正在建立一个供应商组合,但与Anthropic的事件显示,该组合具有存续条件。

当客户拥有购买力和排斥能力时,“合同语言”便从上到下进行标准化。在这里的语言是“合法用途”。围绕这一语言建立了一个组件市场:集成、控制、审计、在封闭网络中的部署、嵌入人力、模型否决的管理、提示的可追溯性、人工决策的记录。

那些将此视为声誉辩论的初创公司将会迟到。正在形成的是一个产品类别:针对有操作保障的受限环境的人工智能。并不是同样的销售与企业SaaS,因为买方并不是在购买方便;而是在购买控制、持续性和责任。

Anthropic表示,将在法庭上对该指控提出质疑,称并未收到直接通知。如果这一争议持续下去,市场效应已经产生:合作伙伴和承包商今天就开始调整他们的曝光度,而不是等到有裁决。六个月的过渡期足以让采购团队重写路线图并替换依赖。

这里显示出一个许多技术公司低估的模式:在受监管或主权的行业中,“产品”包括与国家作为政治行为者的关系。而政治并不尊重产品周期。

高管教训:没有落实的限制就变得无关紧要

OpenAI赢得了因为将限制冲突转化为客户端可以在其规则下操作的交付解决方案。Anthropic失去了优势,因为它试图通过合同结构解决同一冲突,而买方解读为失去控制。区别不在于谁的意图更好,而在于谁设计了与最困难客户现实相符的系统。

对于商业领袖而言,这一案例提供了可应用于国防之外的指导方针:当客户要求广度和速度时,保持限制的唯一方法而不破坏销售,就是将其转化为可验证的机制,融入产品和操作中。无法落实的价值最终只会成为企业装饰,而完美的计划在与实际买方等碰撞的第一天就会夭折。

企业的真正增长发生在放弃完美计划的幻觉,并与真正的客户进行不断的验证。

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣