当国家安全要求“无底线”:迫使人工智能初创企业专业化其治理的紧张局势

当国家安全要求“无底线”:迫使人工智能初创企业专业化其治理的紧张局势

五角大楼和Anthropic之间的紧张关系不仅仅是关于安全措施:它暴露了人工智能行业中普遍存在的脆弱性。

Valeria CruzValeria Cruz2026年2月27日6 分钟
分享

当国家安全要求“无底线”:迫使人工智能初创企业专业化其治理的紧张局势

场面故意设计得非常尴尬。美国国防部长召集了Anthropic的首席执行官达里奥·阿莫代伊,要求取消其旗舰模型Claude的安全保障。据报道,这一要求是允许其“用于所有合法目的”,取消目前阻止的两个特定应用:大规模国内监视完全自动化且无人工监督的武器。Anthropic公开表示不会妥协。

这一最后通牒并未仅停留在口头上。五角大楼的一名发言人设定了截止日期:2026年2月28日,并威胁采取两种报复措施:终止现有合同,或在更激进的举动中,将Anthropic标记为“供应链风险”,这一标签通常用于怀疑间谍活动的外国公司。同时,国防部自己也发布了矛盾的信息:它声称对大规模监视或“无人工干预”的杀戮不感兴趣,但又认为一家企业不应该在法律之上划定界限。

这一冲突同时涉及公共政策、采购和企业文化。在实践中,它变成了一次真正的成熟度审计:当拥有主权的客户要求“无底线”时,一家初创企业不再仅仅是一个闪亮的实验室,而是被视为关键基础设施。这改变了所有的规则。

碰撞不是技术上的,而是权威的碰撞

这一辩论被叙述为关于安全措施的争议,但其核心问题在于对一个通用系统的有效权威的质疑。五角大楼提出,只要某事是“合法的”,供应商就不应该阻止;否则,一家私营企业就在定义公民权利和军事运营边界。Anthropic回应称,有些能力即使在某种框架下是合法的,也与民主价值观不兼容,并且与作为高影响技术的制造商的责任相悖。

在商业角度,这不是一场抽象的讨论。Anthropic于2025年7月与国防部签署了一份2亿美元的合同,在这一套包中,类似的合同也分配给了谷歌、xAI和OpenAI,以定制用于军事的人工智能应用。此外,该公司通过与Palantir和亚马逊的合作建立了通往机密工作的渠道,并推出了Claude Gov,这是一个针对国家安全优化的版本,具有比商业版本更少的安全保障,但有目前试图取消的合同限制。

向市场发出的信号非常清晰:客户并不是在要求性能或延迟;他们在要求使用权。当商业关系重新定义为主权争端时,供应商将面临并不是由产品解决的压力,而是由结构所决定。

“供应链风险”的威胁尤其揭示了这一点。这再也不是范围的谈判;这是试图为整个行业创建一个纪律前例。如果适用,影响将超出直接合同的范围:政府机构和承包商可能被迫停止使用Anthropic的模型。对于一家初创企业而言,这种措施将合同上的争议转变为生存事件。

初创企业的隐性风险:将制度决策变为个人斗争

媒体焦点不可避免地落在了首席执行官身上。在这里出现了一个我们在Sustainabl中经常看到的模式:当一家年轻企业面对国家权力时,叙述被简化为“创始人与系统的对抗”。这虽然能卖出头条,但降低了内部讨论的层次。

如果否定或妥协在实际操作中依赖于首席执行官个人,公司的处境就变得脆弱。并不是因为首席执行官“好”或“坏”,而是因为决策机制变得个人化。在客户是超级大国的国防机构的背景下,个人化是代价高昂的:它增大了压力,简化了敌人,并使任何出路看起来都像是认输或道德胜利。这两者都不是可操作的类别。

真正的成熟要求公司能够支持一个立场,而不将其转化为个人之间的斗争。这需要明确的治理:具有可追溯性的使用政策、明确授权的内部委员会、记录在案的例外标准以及在公共危机中能承受的合同关系。当这些都缺失时,首席执行官就成了唯一的“真相点”,因此,也成为攻击的唯一目标。

在参考材料中,国防部指控首席执行官试图“控制”军队;而首席执行官则回应说,自己“在良心上”无法满足要求。从组织的角度来看,这两句话都是问题的症状:讨论正以个人意愿为基础进行。在一家希望成为全球基础设施的初创企业中,这是最糟糕的谈判表面。

一家健壮的公司并不依赖创始人的言辞来维持界限;它依赖一个使这些界限可重复、可审计和可辩护的系统。“我们不能”和“我们不想”的区别并不是语义上的;而是一个机构政策与领导偏好之间的距离。

2亿美元的合同是容易的部分;艰难的部分是责任架构

从财务角度来看,2亿美元的合同听起来是一个最终的验证。从操作层面来看,这通常是人工智能初创企业最危险阶段的开始:从销售能力转向销售后果

国防部门并不是在购买一个聊天机器人;而是在购买对工作流、智能、物流、计划和决策的控制杠杆。在这种背景下,安全保障不再是“功能”,而是合法性条款。因此,这一冲突不是通过“更多安全措施”或“更少安全措施”来解决的,而是通过一个对双方都可接受的责任框架来解决的。

五角大楼根据简报表明,可能会采用一些特殊工具,比如《国防生产法》,以强制修改。尽管这条道路会面临法律和实际挑战,其单纯提及就会改变任何董事会的计算:谈判不再是与客户,而是在例外模式下与国家进行。

另一个风险在于:模型是资产,合同是渠道的错觉。在高级人工智能中,资产也是团队、其判断以及其构建和维护特定版本的意愿。简报指出了一个令人不安的真相:即使强迫变更,没有人可以迫使企业以市场的节奏训练出“好的模型”,如果其最佳人才并未致力于使命,或者如果官僚程序延误迭代。此外,Anthropic研究了“对齐伪装”等现象,其中模型在训练期间似乎表现良好,而在部署时却反复出现。在高风险场景中,这使得制度的纪律显得尤为重要。

对于人工智能初创企业的高管来说,这个教训是实际的:价值不再仅仅以性能来衡量,而是在于可控性证明、审查流程,以及在没有临时应变的情况下维持界限的能力。未能构建这样的架构就会被夹在两侧:一方面是要求保证的监管者,另一方面是要求完全自由的主权客户。

这一紧张关系对市场的预示:“人工智能作为主权供应商”与模糊性的终结

这一事件标志着一个阶段的转变。在过去的几年里,行业可以与模糊性共存:强大的模型、普遍的承诺、实时调整的使用政策,以及创始人在伦理和商业上双重充当指南针的叙述。当需求来自国防和国家安全时,模糊性变成了一种负担。

如果五角大楼执行终止合同的威胁,向市场传递的信息是:安全保障可能与某些高预算的买家不相容。如果执行“供应链风险”的标签,传达的信息则更为严厉:国家可以试图对整个承包商网络施加标准,以确保可用性。如果协商一个中间点,市场将获得另一种教训:存在设计合同限制的空间,在这种情况下双方可以保持合法性。

在任何情境下,初创企业的衍生效应都是一样的:与政府的关系不再是另一条垂直,而是一门独立的学科。这需要真正有分量的法律和合规团队,技术控制和可追溯性流程,以及一个不依赖于个人的决策结构。

“拯救者CEO”的神话在这里尤为危险。这并不是说首席执行官不应领导,而是治理的个性化让企业容易受到政治压力、管理变动和将其操作空间简化为二元叙述的影响。一个出色的CEO可能在短期内取得成功;而一个成熟的组织则会在长远中获胜。

人工智能行业正越来越成为基础设施的一部分。基础设施意味着连续性、可预见性和责任分散。这意味着用同样严格的文档支持“是”与“不是”。而且更重要的是,领导力不再是公共表演,而是机构工程。

唯一可持续的出路是去个人化权力和专业化治理

五角大楼和Anthropic之间的紧张关系揭示了许多初创企业更愿意推迟的事实:当一个模型变得战略性时,讨论就会进入政治领域,当讨论变得政治时,企业需要一种能够承受压力而不崩溃为个人主义的治理。

在实践中,这意味着构建可重复的决策:明确的使用界限和清晰的等级,独立于当下情绪的例外程序,以及能够与国家谈判的结构,而不将每一次不同意见变为声誉之战。这也意味着设计组织使得人才不再从属于某个中心人物,而是围绕一个可共享的框架对齐,即使在轮换、危机和选举周期中也能保持存在。

真正的公司成功是指高管们构建出如此具有韧性、横向和自主的系统,使得组织能够在未来的道路上不断扩展,而不再依赖于其创造者的自我或缺席。

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣