CoreWeaveが巨人たちが無視した推論コンピューティングの競争に勝利

CoreWeaveが巨人たちが無視した推論コンピューティングの競争に勝利

AWS、Azure、Googleがモデルのトレーニングを競う中、CoreWeaveは誰もが望まなかったビジネスを静かに構築した。

Clara MontesClara Montes2026年4月11日7
共有

CoreWeaveが巨人たちが無視した推論コンピューティングの競争に勝利

2026年4月10日、CoreWeaveは、アメリカのデータセンターでNvidiaのGPUを提供するため、Anthropicとの数年にわたる契約を発表しました。具体的には、Claudeモデルを駆動する生産負荷に向けられています。金融条件は公表されていませんが、市場の反応は明確で、CoreWeaveの株価は当日10%以上上昇しました。

この日はさらなる重要な出来事がありました。MetaがCoreWeaveとの契約を210億ドル追加して拡張することを確認したのは、わずか24時間後のことでした。この関係の総額は約350億ドルに達します。世界の10大AIモデル開発者のうち2社が、1日を隔てて同じインフラに賭けたわけです。2025年に51億3000万ドルの売上を上げ、前年比168%成長した企業にとって、これは単なるトラクションではなく、CoreWeaveがハイパークラウドが知らなかった、あるいはしたくなかったものを構築したという明確な証拠です。

Amazon、Microsoft、Googleが放棄したニッチ

過去数年、メガクラウドの戦略ルームで見落とされていた技術的な区別があります。AIモデルのトレーニングは、大量の計算を要し、比較的レイテンシに対して寛容ですが、企業規模で生産することは全く異なる問題です。推論、すなわちClaudeのようなモデルが数百万のユーザーに同時に応じるプロセスは、低レイテンシ、高可用性、およびその使用パターンに特化したハードウェアアーキテクチャを必要とします。

AWS、Azure、Google Cloudは、主にトレーニングのためのGPUサービスを構築しました。ここでは大口顧客が長期契約を結び、予測可能な計算を消費しています。この市場は許容できるマージンを持ち、ビジネスのダイナミクスが確立されています。一方、生産における推論は、より予測不可能で、構成に対して要求が高く、ハイパークラウドはいわば副次的なユースケースとして扱いました。CoreWeaveはまさにその隙間に入り込みました。

現在、CoreWeaveは、250,000以上のGPUと1.3ギガワットの契約電力を備えた32のデータセンターを運営しています。顧客ポートフォリオには、Microsoft、Meta、OpenAI、Mistral、Cohere、IBM、Nvidiaなど、世界のAIモデル開発者の9社が含まれています。これらの契約の合計は660億ドルに達し、2026年の収益ガイダンスは120億ドルを超えています。これらは、周辺的なニッチを見つけた企業の数字ではなく、カテゴリを定義した企業の数字です。

Anthropicが従来のクラウドを離れる理由

AnthropicがCoreWeaveと契約を結んだ決定は、成熟したモデル開発者がインフラとの関係を再考していることを具体的に示しています。Anthropicは、Claudeの周囲にビジネスパートナーのネットワークを開発するために1億ドルをコミットしています。これは、モデルが一貫して低レイテンシでスケールで機能する必要があることを意味します。企業の顧客はパフォーマンスの低下を許容しません。

メガクラウドもその計算を提供しますが、AIクライアントはリレーショナルデータベース、動画ストリーミング、給与処理のクライアントと資源を争う横断的なプラットフォーム内で提供されます。CoreWeaveは、AIのワークロードのために特別設計されたインフラを提供します。その特異性はマーケティングのための主張ではなく、ビジネスでモデルが100,000の同時リクエストに応じているときに重要になるパフォーマンスメトリクスに翻訳されます。

CoreWeaveとの契約により、Anthropicは、ベースキャパシティを維持しつつ、段階的にコンピューティングを実装し、拡張オプションを持つことが可能になります。これにより、現在の顧客に必要な基盤を確保しながら柔軟性を支えます。NvidiaのGPUが依然として構造的に不足している市場で、専門のプロバイダーを通じてそのアクセスを確保することは、特定のオペレーショナルリスクを軽減します。

CoreWeaveの広報担当者は企業の声明としては異例の精度で次のように述べました。「AIはもはやインフラだけの問題ではなく、モデルを実際の影響に変えるプラットフォームの問題です。」このフレーズは、Anthropicが必要とした仕事を正確に説明しています。単なる一般的なGPUではなく、モデルが実際に顧客が利用する環境で信頼性を持って機能するための推論インフラが必要だったのです。この明白な技術的な区別は、コモディティプロバイダーと、需要が供給を構造的に上回る市場で価格設定能力を持つ企業との間の違いを作ります。

このモデルの成功は、大手AI開発者が求めていた仕事が、決してGPUへのアクセスではなかったことを示しています。それは、インフラがビジネスのボトルネックにならずに、生産でモデルがパフォーマンスを発揮する保証だったのです。

---

共有
0
この記事に投票!

コメント

...

関連記事