「合法的使用」と安全が衝突する時:軍事AIの支配権を巡る戦い
テクノロジー供給者が2億ドルの契約を前に「ノー」と言うことは珍しい。なのに、Anthropicはそうした。
2026年2月26日、CEOのダリオ・アモデイは、同社が米国防総省の要求を「良心的に」受け入れることはできないと発表した。具体的には、彼らのAIモデルClaudeを大規模監視や完全自律型兵器に使用することを禁止するという制限を撤回することを求めている。その反響を受けて、The Guardianによると、ペンタゴンは、国防長官ピート・ヘグセスの下、警告を発した。もしAnthropicがClaudeを機密環境で「すべての合法的な目的」に使用することを許可しない場合、2月27日の午後5時1分(ET)までに契約は取り消され、同社は「供給チェーンリスク」として選別される可能性があるという。これは、米国企業に対する通常の脅威とは異なる評価である。
このニュースが表面上は価値観の衝突のように見えるが、実際のメカニズムはより複雑だ。政府は、AIモデルの支配を契約条項にしようとしており、会社はセキュリティポリシーをサービスの条件にしようとしている。その中で必要な能力を求めるオペレーターや保証を求める納税者がいる。
契約がモデルの支配を巡る戦場に
契約が2億ドルであることは重要だ。それは購入される資産の性質の問題である。基盤モデルは、従来のソフトウェアのように一度配信されて「閉じられる」わけではない。これは、アップデートや調整が可能で、データフローと統合され、時間と共に新しい能力を獲得するシステムである。今日、AIを購入することは、製品をライセンスするのではなく、重要なインフラを契約することに似ている。
だからこそ、ペンタゴンは「すべての合法的な目的」というフォーミュラを推進している。彼らの論理からすれば、法律に対するいかなる追加の制限は、民間の供給者が国家に対して運用上の制限を課すことに他ならない。研究・工学担当副長官のエミール・マイケルは、The Guardianにおいて、自由権の擁護と「ビッグテック」による決定に対抗する問題を語り、企業が民主的に承認された基準を超えて制約を設けることを疑問視した。
対照的にAnthropicは、提案された言語により彼らのセーフガードが任意に無視される可能性があると主張している。匿名の報道官は、国防総省からの最新の文書には「実質的な進展がない」とし、「合意」は主に法的なものであったと述べた。彼らは軍事利用自体を論じているわけではなく、アモデイは米国を守るためにAIを使う「存在的な重要性」を信じていると記した。彼は、モデルが「民主的価値に影響を与える」可能性がある二つのアプリケーションについて論じている。
これは市場に対する戦略的な信号である:交渉はもはや価格やパフォーマンス、サポートの問題ではない。バイパスの鍵を握るのは誰かが問題なのだ。顧客が「必要に応じて」制御を無効にできる場合、セーフガードは単なる飾りになってしまう。供給者が機密環境における使用カテゴリーをブロックできる場合、国家は運用上の主権が外部委託されていると感じる。
Anthropicを「供給チェーンリスク」としてラベル付けする脅威はこの緊張感を強める。これは単なる契約への罰則ではなく、政府に対して未来の販売能力やボーイング、ロッキード・マーチンといった契約者に受け入れられる能力に影響を及ぼす。これは、業界全体のインセンティブを再編成する権力の道具である。
安全が原則ではなく製品設計になる
外部から見ると「セーフガード」は企業の政策に思えるが、実際には製品設計、さらには権力の設計である。モデルが大規模監視や自律武器を禁止することで、特定の使用のスケーラビリティが制限される。その結果、 frictionが生まれる。AIは限界費用を削減し、かつて高価だったものを再現可能にする。
監視において、その変化は劇的である。分散した情報を手動で分析することと、分類、優先順位付け、相関を自動化することの違いは、高コストの操作から広範な能力へと移行することである。同じ論理は致命的なシステムに適用される:自動化は摩擦を減少させ、意思決定のサイクルを加速させ、明示的な人間の監視がなければ責任が曖昧になる。
ペンタゴンは、自らが第四修正条項のような法律に従うと主張しており、追加の民間制限を受け入れる必要はないと述べている。この観点は制度的には一貫している。しかし「合法」と「慎重」とは、能力を強化するシステムでは同義ではない。ある使用が合法であっても、その後に取り除きにくい運用上の前例を作る可能性がある。
私はここでAIの政治経済の核心を見る:議論は「モデルが何をできるか」から「それを取り巻くシステムが何をできるか」へと移動している。機密環境内のモデルは、AmazonやPalantirのようなプラットフォームを通じて統合されれば、単なるチャットボットではない。意思決定のチェーンの一部である。この文脈において、セーフガードは道徳的立場よりもシステムリスクの管理方法として重要である。
アントロピックが公に掲げている立場は、AIを判断の代替としてではなく、増強された知性の観点から見ていることだ。あるシステムが大規模監視や致死性の委任に使用される場合には、人間は監視者ではなく、最善のケースでも後の署名者にすぎなくなる。これが、同社が契約で設定しようとしている境界線である。
防衛における供給者市場の再編
市場は既に一つの仮説を統合し始めている:米国防総省は単一の供給者を求めているのではなく、カタログを求めている。昨年の夏、デジタル・AIオフィスは、軍事利用のためにAnthropic、Google、xAI、OpenAIに合計2億ドルの契約を授与した。明らかなアイデアは、単一のアクターへの依存を避け、能力を加速することだ。
しかし、交渉を変化させる詳細は、同社が現在までに機密環境で使用されている唯一のモデルであることである。これにより、経験と交渉力での優位性を持つ。ペンタゴンはその力を「すべての合法的目的」という契約基準を標準化することで中和しようとしている。
もしその条項が標準化されるなら、他の供給者へのメッセージは明確だ:機密環境に入ろうとする者は、内部ポリシーが限界として機能することを受け入れなければならない。政府が大規模監視や自律兵器に使う約束をする必要はない。法的解釈が許す限り、行使する権利を確保するだけでよい。
同時に競争の道筋が開かれる。報道によると、xAIは機密作業において「すべての合法的目的」という基準を受け入れた。これはAnthropicにとって直ちに財政的リスクを生む:契約を失うことは、潜在的な収入を失うことを意味するだけでなく、実際のデプロイメントで信頼性を築くセグメントでの地盤を譲ることを意味する。
もし実行される場合、ペンタゴンにとってもコストがかかる。報道官のショーン・パーネルはXで、これらの利用を停止すれば作戦や「戦闘員」にリスクをもたらすと警告し、どの企業も条件を強制させてはならないと述べている。この姿勢は交渉を厳しくするが、一方で統合された供給者を外すことの評判コストをも高める。防衛調達において、供給者を変更することは通常、円滑な移行ではなく、アモデイが「スムーズな移行」に準備があると述べたとしても。
あまり語られないのは産業統治の観点だ:米国が契約上の争いで地元企業を「供給チェーンリスク」としてラベル付けにすれば、業界全体は不遵守を脅威として罰することを内在化する。これは市場の「規律」を加速させるが、設計に基づいて堅牢なセキュリティバリアを構築する企業に対して非効率をもたらす可能性がある。
生産防衛法とAIモデルへの州の権力拡大
報道では、ペンタゴンが生産防衛法(DPA)の発動を検討しているとも述べられており、無制限なアクセスを強制しようとしているが、AIポリシーの専門家が指摘する法的な疑問がある。この可能性は、実行されなくても重要である。これは、国家が高度なモデルを戦略的資源として扱う意思があり、戦時の手段をデジタル経済に押し込む準備が整っていることを示す。
企業の視点から見ると、DPAはリスク計算を変更する。もし政府がシステムを「不可欠」と宣言し、条件を強制できるなら、公的セクターに売ることで収入を安定させるという戦略は単純ではなくなる。契約は強制力を持つ合意のように思える。これにより、取締役会は自分たちが何を本当に購入しているのか、売上なのか、リスクなのかを考える必要がある。
アモデイが指摘した矛盾は運用上重大である:Anthropicを供給チェーンリスクに指定することが脅しとなる一方で、同時にそのモデルが国家安全にとって不可欠であると評価している。これは単なる言葉の相違ではなく、政府が依存なしの依存、すなわち供給者にも権力があることを受け入れずにアクセスを求めることを示している。
考えられる結論は、一方的な勝利ではなく、契約の再設計によるグレーな区域の形成である:文書上のセーフガード、特定のプロセスにおける例外、内部監査、国防総省のための柔軟性を保持する言語。グレーゾーンの問題は、テクニカルに保証されていないものが時間とともに侵食されることである。
明らかなことは、パターンである:防衛におけるAIは、重要な資産がもはやモデルではなく、その使用の管理に移行していることだ。その杖を操る者が価値を掌握することになる。
避けられない方向性は技術的ガバナンス、単なる条項ではない
インパクトに焦点を当てた未来学者として、この争いを成熟の症状として見る。AIは「革新的」な購入からインフラになった。そのインフラでは、実際の議論は誰が限界を定義し、誰が例外を監査し、そして「合法的」な使用が運用的、政治的、あるいは社会的な被害をもたらす場合に誰がそのコストを負担するのかということである。
Cレベルの幹部は、この事例を規制されるセクターにおけるAI購入の教訓として読むべきである:保安の原則がアーキテクチャやプロセスに組み込まれていない場合、それは契約附則として交渉され、附則は圧力を受けて破られる。もし安全が善意によって依存されるなら、それは拡大しない。
また、デジタルの収束が意思決定の独占を侵食する仕組みを思い出させる。政府はプライベートなセクターが構築するモデルに対して完全なコントロールを期待できず、企業もその内部政策が民主的な枠組みを代替すると主張することはできない。安定した出口は、強化された知能が人間の監視とトレーサビリティを保持するように設計されたシステムを作ることである。
この市場は、デジタル化からガバナンスの破壊的変化へと移行している。価値は、セーフガードを監査可能な工学に変える者、能力を劣化させることなく遵守コストを削減する者に移るだろう。技術は人間の基準を強化し、保証を民主化するものでなければならない。











