军事人工智能之战已演变为治理之战

军事人工智能之战已演变为治理之战

五角大楼与Anthropic之间的冲突,不仅仅是技术限制的问题,而是关于艺术与科学的治理、资金、政治恐惧与声誉。

Simón ArceSimón Arce2026年3月10日6 分钟
分享

军事人工智能之战已演变为治理之战

2026年2月27日的一周,展现了一个从董事会窗口看起来更令人不安的场景。萨姆·阿尔特曼宣布OpenAI与五角大楼达成协议,部署模型于保密网络中。而与此同时,白宫下令各联邦机构在六个月内撤回对Anthropic的技术支持,国防部长皮特·赫格塞斯称该公司为“国家安全的供应链风险”,禁止军事承包商与Anthropic进行商业往来。据报道,Anthropic表示将准备提起诉讼。

与此同时,部分技术人才公开表达异议。超过300名谷歌员工和60名OpenAI员工联名致信他们的领导,要求支持Anthropic所捍卫的限制,特别是对国内大规模监控的禁止,以及对自主武器系统确保人类控制的要求。

如果只看标题,故事构建出惯常的叙述:一家公司“拒绝”,另一家“谈判”,而政府则“施压”。但在实际经营中,关键在于国家不仅仅是在购买人工智能,还试图购买机构的服从。而行业不仅仅是在出售模型,他们还在出售维护立场的能力,尤其是在激励变得惩罚时。

当客户也是监管者并如竞争对手般施压

将Anthropic视为供应链风险的政治决策,其影响超出了该公司本身。在复杂采购的世界中,给市场最糟糕的信息不是“不买你”,而是“如果你和他们合作,就无法与我交易”。据简报,赫格塞斯表示,任何与美国军方做生意的承包商、供应商或伙伴,都不能与Anthropic进行商业活动。这不仅是采购的偏好,而是强制的对齐信号。

其直接后果显而易见:国防价值链中的激励重新排序,从集成商到云服务提供商和系统咨询公司。费用不只是由被阻止的供应商承担;任何陷入模糊之中的参与者都要付出代价。在这样的环境中,许多公司不再根据操作风险进行决策,而是根据政治风险进行判断。

这一点在高管层中经常被低估。"主权客户"拥有购买力、负有规范责任且拥有公众声誉的能力。在防务等行业中,这种权力三角形改变了科技公司的内部治理:销售职能可以将法律、合规和安全推向一个框架,重要性从产品设计转向合同的政治可解释性。

特朗普在报道中引用的言论,充分表达了这一维度:他批评Anthropic的管理层,威胁运用“总统的全部权力”来强迫其合作。无论最终在法庭上讨论的合法性如何,管理机制已经开始运作。国家表明,他们能够将意见的分歧转变为生存风险。

这个事件也重新审视了对于人工智能公司董事会的一个棘手问题:对单一主导买家的依赖,使得任何分歧变成生死攸关的事件。多元化不只是财务上的,而是政治上的。

两条红线与无人愿意关闭的语言问题

冲突的核心正如所述,就是Anthropic坚持的两个限制:不允许对美国公民进行大规模国内监控,以及要求对自主武器实施人类控制。五角大楼要求对“所有合法目的”享有“无限制访问”,据Axios的简报提到,还威胁要引用《国防生产法》。

表面上,双方声称捍卫相似的原则。阿尔特曼表示,OpenAI也坚持禁止国内大规模监控与使用武力时人类责任的原则,并称“国防部与这些原则一致,将其写入法律和政策,并纳入协议中”。这句话在合约方面是外科式的:重心从企业伦理转移到现有法律框架。

这种转移定义了赢家。如果争论的方式是“我的内部政策与你的运营需求”,那么公司便暴露于政治行为之中。但如果表达为“我们遵守法律,你的现有政策”,公司则被视为负责的供应商和国家标准的执行者。同样的限制可以被视为叛逆,也可以视为合规,这取决于文本的撰写方式和控制者。

我认为缺失的对话并不在企业与政府之间,而是在每一家公司内部。人工智能组织已经数月,甚至数年地试图同时维持两种不同的论调:对公众的安全和对大买家的可用性。当需要将“安全”翻译为可核实的条款时,出现的摩擦并不是技术问题,而是权力问题。

根据简报,Anthropic声明这两条限制到目前为止并没有影响到“任何一次任务”。这一说法试图解除操作论点,而问题在于争议已经不仅仅是操作性的:它是象征性的。当一场冲突变得象征性的时候,技术妥协的余地便减少。

OpenAI协议作为政治产品和竞争优势

阿尔特曼宣布与五角大楼达成协议,部署模型于保密网络中,从而重新配置了棋盘。并非因其技术细节(在此情况下未详述),而在于其竞争信号。在买方能够关闭其他选项的市场中,接入保密网络更像是一种“许可”,而不是“合同”。

根据报道,阿尔特曼补充了两个值得高管关注的元素。首先,使用限制反映现有的立法和政策,而不是企业创造的新规则。其次,OpenAI在云网络中运行,而不是在自主武器等边缘场景中。这第二点,无需浪漫化,划定了责任:减少了技术和道德风险的面,降低了产品在需要人类控制的情况下出现虚构情景的概率。

同时,这并不合适将其叙述为个人的优点或缺陷。战略性的问题是,当合同的获取依赖于与某行政机构保持一致时,建立什么类型的公司。在不同的政治周期内,相同的条款可能会被重新定义为不足或过多。那家仅仅将叙述锚定在“站在权力的正确一方”的公司,面对下一个变更时将变得脆弱。

在行业层面,令人担忧的先例是黑名单制度所造成的不对称。如果一个参与者受到惩罚,其他人则收到隐形的市场份额捕获邀请。这样的邀请根本不需要明确。它之所以有效,是因为恐惧是一种比长期规划更快的激励。

人才反叛与以备忘录治理的代价

对任何CEO而言,最相关的细节并不是官方声明,而是员工签署的信件。超过300名谷歌员工和60名OpenAI员工,要求他们的领导支持Anthropic并抵制五角大楼的要求。根据简报,该信件指出政府试图“分裂”每家企业,以制造对方妥协的恐惧。

当竞争公司的员工协调此类举动时,信息显而易见:人才感受到公司治理正更多地响应外部压力,而非内部承诺。而在人工智能领域,人才并非是一个支持职能。相反,它是生产的引擎部分。

这揭示了一个经典的组织成熟度缺口。企业认为能够凭借内部文件、委员会和华丽措辞治理高风险困境。然而,当困境进入地缘政治时,政府不再是利益相关者,而是一个定义可能框架的行为者。文化在此经受考验,而非在公开的价值观中。

根据报道,杰夫·迪恩写道,大规模监控违反了第四修正案,抑制了言论自由,并易于造成政治或歧视滥用。这一评论,作为个体发出,显示出另一种紧张关系:技术领导者被推迫在个人渠道发声,因为公司出于谨慎选择沉默。谨慎可能是战略上的,但亦可能是一种掩盖内部不协调的方式。

操作成本随后显现。当组织的一部分感到“公司”不过是私人决定的商业前线时,留任、执行速度以及跨部门合作的效率都会下降。并不需要罢工,仅仅依靠信任的侵蚀也足以。

高管要面对的是权力设计,而非道德辩论

这个事件给出了一个严酷的教训:在人工智能领域,使用条款是权力的工具。如果国家可以要求“所有合法目的”并惩罚试图保持例外的供应商,那么市场就从创新驱动转向合同遵守。

对防务行业之外的商业领袖而言,这并非是一个无关的轶事。这为如何在有监管的技术部门管理通用技术提供了前景:医疗、金融、教育和关键基础设施。任何在监管者同时作为买方或市场创造者的行业,都面临着复制此模式的风险。

我观察到的必要的管理对策并非愤慨或英雄主义,而是设计。设计一个减少政治依赖的客户组合。设计将价值转变为可审计的控制,而非声明。设计与人才的关系,使得红线不再作为道德宣传,而是作为可以操作的承诺。

这也要求以最让人不安的方式承担责任。当环境变得强制时,诱惑是指责政府、媒体或“对立”。这就是以纪元为受害者的管理方式。一个严肃的CEO会承认,他们的组织将根据其在压力下维持一致性的能力而被评测,即便这种一致性付出代价、损失声望或收入。

整个组织的文化无非是追求真实目标的自然结果,或者是领导者的自尊心限制其进行困难对话时的必然症状。

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣