顧客がマスタキーを要求するとき:AIの安全性と連邦調達の衝突
コペンハーゲンでの急速な分裂は意図的に騒がしいものであり、2026年2月27日、ドナルド・トランプ大統領はすべての連邦機関に対し、AnthropicのAI技術の使用を中止するよう命じました。この指示は、国防長官のピート・ヘグセスがペンタゴンがAnthropicを「供給チェーンのリスク」として指定すると発表した直後に出されました。このラベルは、歴史的に異常なケースや通常は外国の関与に関連付けられるものでした。直ちに2億ドルの国防総省の契約が終了することになりました。
トリガーは技術の不具合でも漏洩でもなく、購入中の「製品」に関する不可逆的な違いでした。Anthropicは、特定の軍事用途に対するClaudeモデルの安全制限を撤去することを拒否し、大規模な国内監視や人間の監視なしの自律武器に関連するリスクを主張しました。一方、ペンタゴンは、ツールの使用の決定権は国家にあるとし、技術が「すべての合法的な目的」に利用可能であることを求めました。
外部から見ると、これはコンプライアンスの議論のように見えますが、内部ではそれは権力の体系の衝突、すなわちシステムの制限を誰が管理するかという問題です。この詳細がアメリカにおけるAIの公共調達の論理を完全に変えてしまいます。
「リスク」としての指定が商業間の争いを除外条項に変える
報告された一連の出来事は、短期間でエスカレートしています。ヘグセスはAnthropicに対し、使用制限を放棄しない場合は制裁を科すとする最後通牒を出しました。これにはリスク指定や、防衛生産法の使用の可能性が含まれています。26日木曜日、CEOダリオ・アモデイはその要求を拒否しつつも交渉の意欲を示しました。27日金曜日には、国防総省による指定が発表され、その後、大統領の命令が「すべての機関」に対しAnthropicの使用を停止するように求めました。
最も攻撃的な部分は、単に2億ドルの契約の取り消しだけではありません。ドミノ効果があります。国防長官が発表したところによれば、陸軍に関連するすべての契約者、供給者、パートナーはAnthropicとの「商業的関係」を維持できなくなります。この表現は、連邦支出の実態に適用されると、罰金として機能するのではなく、閉鎖された市場条項のように働きます。実際には、防衛部門に製品を販売する企業は、ペンタゴンとの関係とAnthropicとの関係のいずれかを選択することを余儀なくされます。
AIの供給者にとって、この種の措置は競争のフィールドを変えます。もはや精度やコスト、サポートによって競争するのではなく、受け入れ可能性について競争することになります。テクノロジー企業にとっての戦略的リスクは明白であり:ラベルが「供給チェーン」になれば、会話はパフォーマンスから帰属へと移ります。
Anthropicは、「法律的に持続不可能」とする指定を行い、法廷で争う意向を示しました。また、そのような指定は国防総省の契約でのClaudeの使用に限られるべきであり、他のクライアントに対する契約者の使用にまで広がるべきではないとしています。この防御は真の戦場を明らかにしました:範囲です。
政府におけるAIの実際の製品はモデルではなく、モデルのガバナンスです
私のイノベーション分析の仕事において、購入者は技術を「取得する」のではなく、進展を実現するために契約する傾向があることを観察しています。ここで政府が追求している進展は、より巧妙なチャットボットではありません。それは、ある重要な前提の下での操作能力です。状況が要求するおいて、制限を再構築する可能性です。
Anthropicは、報告によると、顧客のニーズが最も強力であるにもかかわらず、生き残るガードレールを持つAIを販売しようとしています。これは民間市場では利点となるでしょう:評判リスクの軽減、乱用の制限、規制された環境での採用促進。しかし、国防の分野ではインセンティブが変わります。購入する機関は、成果だけではなく、裁量権を必要とします。裁量権は、製品の側面ではマスタキーへのアクセスを意味します。
ペンタゴンとの衝突は、AI企業があいまいでコントロールを提供しようとする際に抱える緊張を明確にしています。公共部門では、これらの制限は「提供者の倫理」とは見なされません。ミッションに課された外生の制約として読まれます。「すべての合法的な目的」というペンタゴンの要求は、単なる文の詳細ではなく、AIを国家のインフラに変える試みです。
通常、企業の盲点は、自社の差別化がモデルにあると信じることです。連邦調達において真の差別化は、全体のパッケージにあります:コントロール、監査、操作の説明責任、サポート、責任の合意、そして何よりも設定について最終決定を下す者が誰であるかです。意見の不一致が存在的なものになると、政府はSLAを再交渉するのではなく、排除メカニズムを発動します。
即座の財務的影響は2億ドルの契約;戦略的被害は市場へのシグナル
2億ドルの契約を失うことは、資金面でも、物語としても痛手です。しかし、最も深刻な打撃は、その措置が市場の他の参加者に伝えるメッセージです。もし連邦政府が一つの提供者を受け入れないと決定すれば、その決定は第三者に対してリンクを切るよう強いる可能性があるのです。
これは三つのグループの計算を変更します。
まず第一に、契約者にとってです。第三者のモデルを統合するコストはもはや単なる技術的なものではありません。継続性のリスクとなります。排除される可能性のある供給者は、契約上の不確実性をもたらします。法的な問題が続く中でも、契約者の即時のインセンティブは露出を最小限に抑えることです。
次に、他のAIの提供者にとって、シグナルは使用のポリシーがマーケティングの付随物ではなく、適格条件であるということです。いくつかの企業は「すべての合法的な目的」とより互換性があるように自社の立場を調整します。その他は、コアに触れずに異なる使用プロファイルを許容する製品構造で自らを守るしようとします。どちらの場合においても、コストは増大します。政府向けにバリエーション、プロセス、コントロールを構築することは高価です。
最後に、投資家および企業の顧客にとって、国との関係が国内のAI企業の軌跡を再定義できるという考えが浸透します。「供給チェーン」という指定が米国企業に適用されることは前例がなく、それゆえに業界にとって評判の不安定性をもたらします。
さらに、政治的要素もすでに構築に加わっています。上院情報委員会の副委員長であるマーク・ワーナーは、この命令を批判し、国防政策に関与する4人の上院議員が両者に冷静さを求め、ペンタゴンから課された期限を超えて交渉を継続するよう求めました。大それた告発なしに、根底にあるメッセージは明確です:ワシントンでは、技術的な決定であっても、ガバナンスの読み取りが伴います。
この危機が残すパターン:防衛におけるAIは、ソフトウェアではなく主権の能力として購入される
もしこの話が単に「安全」と「使用の自由」の対立と見なされるなら、基本的なメカニズムを見落とします。国家は先進的なモデルを主権の能力に変えようとしており、ここで主権は法的命令のもとでのシステムの行動の制御を意味します。この場合、提供者のAnthropicは、特定の制限が製品の一部であるという設計を保持しようとしていますが、顧客が政府であっても。
イノベーションに関して言えば、これは連邦市場の再編成を三つの動きで予測します。
一つ目、細かい管理を可能にするアーキテクチャの需要が増加します。「許可/禁止」だけでは不十分です。顧客はモード、権限、トレーサビリティ、環境の分離を要求します。議論は消失せず、技術的に進化します。
二つ目、極端なコンプライアンスで運営できる提供者の価値が増加します。公共の購入者にとって、摩擦はコストであり、リスクでもあります。
三つ目、州の使用ドクトリンとの契約の整合性に基づく選定基準が厳しくなります。「すべての合法的な目的」というフレーズは、スローガン以上の調達基準になります。
Anthropicはこの指定に対して法廷で争う意向を示しました。そのプロセスは時間がかかるかもしれませんが、その結果は重要です。しかし、すでに市場の教訓が広まっています:連邦政府は単にテクノロジーを購入するだけでなく、法的枠組みの中での運用上の従順性を購入しているのです。
ここでの購入者の行動は、進展のために契約された「仕事」が高度な言語モデルではなく、国家の完全な管理の下でAIを任務の道具として展開する能力であることを示しています。










