AIが戦争に入るとき、製品はモデルから制御に変わる
このニュースは、米国政府とテクノロジー供給者との間の契約争いについてではありません。これは、国家安全保障のために適用される最先端AIのサプライチェーンにおける権力の変化についてです。2026年3月6日、米国戦争省はAnthropicとの2億ドルの契約をキャンセルし、その会社を「国家安全保障のためのサプライチェーンリスク」とみなしました。これは、歴史的に外国の敵に留保されていたラベルです。数時間後、ペンタゴンはOpenAIとの競合契約を結びました。すべては特定の不一致によって引き起こされたものです。Anthropicは、国内での大規模監視や、人間の監視なしの完全自律兵器の使用についての契約上の保護措置を撤回することを拒否しました。
この問題をより深刻にしているのは、Claudeがすでに深く統合されていたことです。Claudeは、政府の機密ネットワーク、国家の核研究所、情報分析のフローに導入されており、PalantirのAIプラットフォームを通じて展開されていました。契約をキャンセルしても、すでに重要なプロセス内に存在しているシステムをアンインストールすることはできません。このため、ペンタゴンはClaudeをシステムから撤去するための6か月間の移行期間を設けました。
ビジネスの観点から見ると、この物語は、故障に対する許容度が最小限である場合に、AIがどのように「プロダクト化」されるかのレントゲン写真のようです。消費の世界では、製品はパフォーマンスです。防衛の世界では、製品はパフォーマンスに加えて制御となります:誰が決定し、どのように制限され、どのように監査され、モデルが誤った場合にどのように対応するか。
ペンタゴンはAIを購入しているのではなく、運用の選択肢を購入している
2026年1月9日、戦争省はAI加速戦略を発表しました。これは、最近の戦略の中で最も攻撃的なものであると説明されています。この文書は、30日以内に公開された後に展開でき、「すべての合法的な目的」に利用できるとされる、7つの「ステップマーカー」プロジェクトを設けました。
「すべての合法的な目的」というフレーズが、真の製品要件です。敵が戦術や技術を迅速に進化させる環境下で、機関のバイヤーは、新しい使用事例が出現するたびに許可を再交渉するというボトルネックを避けようとしています。言い換えれば:彼らは選択肢を求めています。暗黙の賭けは、保護措置は解釈される契約内ではなく、運用が実施されるシステム内でこそ存在すべきだということです。
ペンタゴンの対応は、契約キャンセルを実行する際に、Secretary Pete HegsethがAnthropicを軍事活動に対する「拒否権」を狙っているとして非難したことに表れています。この原則とアメリカの原則に対する立場が矛盾しているとされます。レトリックを超えて、調達の論理は明確です:防衛は、広範なフレームワークを受け入れ、その中で使用制限を解決できる供給者を望んでいます。
ここには、企業リーダーがすぐに認識する緊張が現れています。AIシステムが重要なインフラに変わると、顧客は依存関係や摩擦を最小限に抑えようとします。そして、供給者は、自社の技術が受け入れられないシナリオで使用されることを恐れ、その要求から免れるための条項を求めます。この衝突は偶然のものではなく、AIがもはやツールではなく能力であるという症状です。
Anthropicのレッドラインがセキュリティをマーケティングではなくアーキテクチャの問題に変えた
Anthropicは、交渉不可能な2つの条件を主張しました:米国市民に対する国内での大規模監視はなし、人間の監視なしの完全自律的武器はなし。報道によると、ペンタゴンはこれらのカテゴリーをグレーゾーンとし、ケースバイケースの交渉は「実行不可能」と検討しました。
エグゼクティブの観点から見ると厳しいですが有用です:極端なシナリオでは、バイヤーは操作のあいまいさを罰するのです。法的な解釈や政治的な文脈に依存する条項は、リアルタイムで複数の指揮、同盟、戦域、分類を通じてシステムが運用しなければならないときに摩擦となります。
最も明らかな要素は、Claudeがこの争いの際、ペンタゴンの機密ネットワークで運用されている唯一の最前線のAIモデルであったことです。つまり、「リスク」はAnthropicが中にいなかったのではなく、すでにあまりにも中に居すぎ、その使用や展開の進展を供給者が条件付ける可能性があったのです。重要なインフラでは、バイヤーにとっての最悪のシナリオは技術的な失敗ではなく、供給者のガバナンスの欠如です。
また、第二の順序もあります:「サプライチェーンリスク」としての指定は、契約を解除するだけでなく、統合業者やパートナーへの波及効果があります。報道によれば、Google、Salesforce、NVIDIAは投資家またはエンジニアリングパートナーです。政府や防衛請負業者に販売する場合、サプライチェーンでのリスクがラベリングされることで業務を分離し、内部のファイアウォールを設け、一部の市場を放棄して他を保護することを余儀なくされます。
人間への影響の観点では、信号も同様に重要です:大規模監視と自律武器に対するバリアが「グレーゾーン」として議論されるなら、市場は検証可能な制御設計を必要とします。検証がなければ、議論は信頼と物語に還元されます。そして、防衛において、物語は危機が続く限りのものです。
OpenAIと価値の単位の変化:条項から運用制御へ
キャンセルの数時間後、ペンタゴンはOpenAIと契約を結びました。Sam Altmanは公に、彼のアプローチがAnthropicが主張した原則を同じように保つものであると擁護しましたが、異なるメカニズムを使用しています:「すべての合法的な目的」の枠組みを受け入れ、アーキテクチャの制御を重ねました。報道によれば、OpenAIはクラウドでの展開、ペンタゴンが無効にしないと認めた独自のセキュリティ層、機密環境で運用し、ガードレールを維持するための認定されたスタッフを構築しました。
これが実践で維持されるなら、それは製品の変化になります:モデルがコンポーネントとなり、実際の提供が展開、監視、制限、応答、極限条件下での維持のパッケージとなります。
CFOやリスク責任者にとって、企業の類似性は明白です。規制があるセクターでは、企業はすでに「AIを購入する」ことは完全なシステムを購入することであると学びました:アクセス制御、トレーサビリティ、記録、バイアスの評価、事故発生時の escalations メカニズムなど。防衛は、スピードと適応性を優先するオペレーショナルインセンティブがあります。
この争いは、最前線のAI市場のセグメンテーションも明らかにします。2025年7月、4社が最大2億ドルの契約を受け、Anthropic、OpenAI、Google、xAIが選ばれました。この盤面では、一部の供給者は広範な使用言語を受け入れ、他の供給者は契約上の明示的な禁止を要求しています。これは哲学的な議論ではなく、リスクをどこに配置し、高価値のセグメントをどのように収益化するかのビジネスの決定です。
本当のコストは「切り離し」と誰が依存を制御するかにある
報道に埋もれている一つのデータは、どんな見出しよりも重みがあります:Claudeを機密ネットワークから撤去するには6か月かかります。引用された担当者は、それを解体する際の大きな痛みとして描写しました。このフレーズは、大きな組織におけるAIの政治経済を要約しています。
モデルが分析フロー、文書、情報評価、運用モデルに接続されると、依存は構造的なものになります。コストはモデルのライセンスにあるのではなく、プロセスの再設計、ユーザーのトレーニング、コネクタ、分類の適応、検証、セキュリティの再認証にあります。「出口」は「入口」と同じくらい高価になります。
そして、出口が高価であれば、ガバナンスはレバレッジになります。したがって、議論はもはや誰が最良のモデルを持っているのかではなく、誰が継続、制限、コンプライアンスのより良い保証を提供するかなのです。ペンタゴンは、「サプライチェーンリスク」というラベルによって、契約上のハードな権力および評判を使用して解決しようとしました。Anthropicは、契約によって明示的な制限を設けることで解決しようとしました。OpenAIは、制御の設計と運用条件によって解決したと報告されています。
さらに、運用コンポーネントもあります。報告によれば、米国中央司令部は、イランに対する米国-イスラエル共同作戦「エピックファリー」で情報評価、目標の分析、運用モデリングにAnthropicのAIを使用しました。これは、供給者の技術的優位性を証明するものではなく、実際の統合を証明するものです。そして、実際の統合は、これらの戦闘が行われる場です。
民間市場にとって不快ではあるが有用な暗示は、ガードレールに関する会話は「原則」や「約束」で終了するのではなく、検証可能なメカニズム、分散された責任、トレーサビリティで終わるということです。組織が圧力の下でシステムをどう制限しているかを証明できないのであれば、彼らはシステムを管理しているわけではなく、ただ待っているのです。
リーダーにとっての窓:AIを測定可能なガバナンスのある拡張知能に変える
私の視点から、このエピソードは転換を確認します:AIはソフトウェアから戦略的インフラに移行しています。この移行において、競争の差別化はモデルへのアクセスから、運用を滞らせることなくそれを管理する能力に移行します。
企業リーダーにとって、これは三つの具体的な決定に帰着します。
まず、「モデルの能力」と「制御の能力」を分離します。多くの企業はパフォーマンスを購入し、その後に監査、制限、記録、事故対応を即興します。敏感なセクターでは、それは逆の投資です。ガバナンスは、初日から製品として購入し、設計する必要があります。
次に、計画的な出口で依存を設計します。モデルを切り離すのに、金銭が主要な制約でない環境では6か月かかるなら、企業ではもっとかかる場合があります。ポータビリティ、内部標準、統合アーキテクチャは、ITの決定ではなく、財務戦略です。
最後に、拡張知能を運用の disciplina として主張します:意味のある監視、意思決定のトレーサビリティ、明確な責任。意識なく効率を追求すると、エラーが拡大します。そして、重要なシステムにおいて、エラーは損害に変わります。
この市場はすでに、デジタル化が採用を加速し、制御が準備されていない場合に失望が訪れ、ガバナンスがモデルよりも価値を持つ時に破壊が生じるフェーズに入りました。技術は、人間の判断をメジャー可能な制御と責任あるアクセスによって強化し、能力を民主化しつつ、損害を民主化してはいけません。










