CoreWeave remporte la course pour l'inférence que les géants ont ignorée

CoreWeave remporte la course pour l'inférence que les géants ont ignorée

Alors qu'AWS, Azure et Google rivalisent pour former des modèles, CoreWeave a discrètement construit un business que personne n'a voulu : le calcul de production.

Clara MontesClara Montes11 avril 20267 min
Partager

CoreWeave remporte la course pour l'inférence que les géants ont ignorée

Le 10 avril 2026, CoreWeave a annoncé un accord pluriannuel avec Anthropic pour fournir des capacités de GPU Nvidia dans des centres de données aux États-Unis, spécifiquement destiné aux charges de production alimentant les modèles Claude. Les termes financiers n'ont pas été divulgués, mais la réaction du marché a été forte : les actions de CoreWeave ont augmenté de plus de 10 % dans la même journée.

Ce n'était pas le plus révélateur de la journée. Ce qui a été le plus révélateur, c'est que cette annonce est venue à peine 24 heures après que Meta a confirmé une augmentation de son engagement envers CoreWeave de 21 milliards de dollars supplémentaires, portant la valeur totale de cette relation à environ 35 milliards. Deux des dix principaux développeurs de modèles d'IA au monde faisant le choix, avec un jour d'intervalle, de s'appuyer sur la même infrastructure. Pour une entreprise qui a généré un chiffre d'affaires de 5,13 milliards de dollars en 2025 avec une croissance de 168 % d'une année sur l'autre, cela ne représente pas seulement une traction : c'est le signe que CoreWeave a construit quelque chose que les hyperscale n'ont pas su ou voulu construire.

Le créneau que Amazon, Microsoft et Google ont laissé libre

Il existe une distinction technique qui, pendant des années, est passée inaperçue dans les salles de stratégie des grandes plateformes cloud : entraîner un modèle d'IA est un problème de calcul massif et relativement tolérant à la latence ; le faire fonctionner en production à une échelle commerciale est un problème complètement différent. L'inférence, qui est le processus par lequel un modèle tel que Claude répond à des millions d'utilisateurs simultanément, exige une faible latence, une haute disponibilité et une architecture matérielle spécifiquement optimisée pour ce type d'utilisation.

AWS, Azure et Google Cloud ont bâti leurs offres de GPU principalement autour de l'entraînement, où les grands clients signent des contrats à long terme et consomment des blocs de calcul de manière prévisible. Ce marché a des marges acceptables et une dynamique commerciale connue. L'inférence en production, en revanche, est plus imprévisible, plus exigeante en termes de configuration, et nécessite une spécialisation opérationnelle que les hyperscale ont traité comme un cas d'utilisation secondaire. CoreWeave s'est installé exactement dans ce créneau.

Aujourd'hui, elle opère 32 centres de données avec plus de 250 000 GPUs et 1,3 gigawatts de capacité électrique contractée. Son portefeuille de clients inclut neuf des dix principaux développeurs de modèles d'IA au monde : Microsoft, Meta, OpenAI, Mistral, Cohere, IBM et Nvidia, entre autres. La somme de ces contrats se traduit par un carnet de commandes de 66 milliards de dollars et une prévision de revenus pour 2026 qui dépasse les 12 milliards. Ce ne sont pas les chiffres d'une entreprise qui a trouvé un créneau marginal : ce sont les chiffres d'une entreprise qui a défini une catégorie.

Pourquoi Anthropic a choisi de sortir des nuages traditionnels

La décision d'Anthropic de signer avec CoreWeave en dit long sur la façon dont les développeurs de modèles matures repensent leur rapport à l'infrastructure. Anthropic avait déjà engagé 100 millions de dollars pour développer son réseau de partenaires commerciaux autour de Claude. Cela implique que le modèle doit fonctionner de manière cohérente, avec une faible latence et à grande échelle, pour des clients d'entreprise qui ne tolèrent pas de dégradations de performance.

Les grandes plateformes cloud offrent ce calcul, mais au sein de plateformes conçues pour être horizontales, où le client d'IA se bat pour les ressources avec le client de bases de données relationnelles, le client de streaming vidéo et le client de traitement de paie. CoreWeave offre une infrastructure conçue spécifiquement pour les charges de travail d'IA. Cette spécificité n'est pas un argument marketing : elle se traduit par des métriques de performance qui comptent lorsque un modèle répond à 100 000 requêtes simultanées dans une application d'entreprise.

L'accord avec CoreWeave permet également à Anthropic d'exécuter le calcul de manière progressive, avec des options d'expansion, lui donnant flexibilité sans compromettre la capacité de base dont il a besoin pour ses clients actuels. Dans un marché où la pénurie de GPUs Nvidia reste structurelle, assurer cet accès via un fournisseur spécialisé réduit un risque opérationnel concret.

Le porte-parole de CoreWeave a formulé cela avec une précision inhabituelle pour un communiqué d'entreprise : "L'IA ne concerne plus seulement l'infrastructure, mais les plateformes qui transforment les modèles en impact réel." Cette phrase décrit exactement le travail qu'Anthropic devait confier : pas des GPUs génériques, mais la capacité de faire fonctionner Claude en conditions de production sans que la performance ne s'effondre.

Le risque structurel que deux accords ne résolvent pas

Le succès de CoreWeave présente une fissure que les investisseurs ont identifiée depuis son introduction en bourse et que le marché continue de surveiller de près : Microsoft représentait environ 67 % de ses revenus en 2025. Cette concentration sur un seul client transforme tout changement dans la relation commerciale avec Microsoft en un risque systémique pour l'entreprise.

Les accords avec Meta et Anthropic dans les 48 heures sont la plus directe preuve que CoreWeave exécute une stratégie délibérée de diversification. Mais le travail est loin d'être terminé. Si Meta représente désormais une part significative du carnet de commandes pluriannuel, CoreWeave aura échangé la concentration sur un client pour la concentration sur deux. Le risque diminue, mais ne disparaît pas.

Il y a aussi un facteur d'exécution que les chiffres projetés ne capturent pas : soutenir 32 centres de données, incorporer de nouvelles capacités pour satisfaire 66 milliards de dollars de engagements contractés, et le faire alors que les coûts d'énergie et de construction restent volatils, nécessite une précision opérationnelle que peu d'entreprises de cette taille et dont la vitesse de croissance est soutenue ont démontrée de manière continue. La prévision de plus de 12 milliards pour 2026 implique plus que de doubler les revenus en un an. Ce n'est pas impossible compte tenu du carnet de commandes existant, mais cela exige que la chaîne d'approvisionnement de matériel, les contrats d'énergie et la construction d'infrastructure fonctionnent sans frictions significatives.

Le modèle de CoreWeave transforme les coûts variables de calcul en engagements fixes à long terme pour ses clients, ce qui protège ses revenus futurs, mais transfère la pression d'exécution vers l'intérieur. Si un centre de données accuse du retard ou si un achat de GPUs est retardé en raison de restrictions d'approvisionnement de Nvidia, l'impact n'est pas supporté par le client : il est supporté par CoreWeave.

Le travail sous-jacent derrière l'accord

Le parcours de CoreWeave, depuis l'exploitation de l'Ethereum jusqu'à celui de fournisseur de calcul pour neuf des dix principaux développeurs d'IA au monde, est pertinent non pas parce que c'est une histoire de résilience d'entreprise, mais parce que cela illustre comment une entreprise peut redéfinir son objectif autour d'un problème spécifique du client que personne d'autre ne résolvait bien.

L'accord avec Anthropic ne confirme pas que CoreWeave a une bonne technologie. Il confirme qu'elle a identifié le travail concret que Anthropic, Meta, OpenAI et d'autres avaient besoin de sous-traiter : pas une capacité de calcul générique, mais une infrastructure d'inférence qui permet aux modèles d'opérer de manière fiable lorsque des utilisateurs les utilisent, et non lorsque les ingénieurs les testent. Cette distinction, apparemment technique, est en réalité la séparation entre un fournisseur de commodités et une entreprise avec un pouvoir de fixation des prix dans un marché où la demande dépasse structurellement l'offre.

Le succès de ce modèle démontre que le travail que les grands développeurs d'IA sous-traitaient n'a jamais été l'accès aux GPUs : c'était la garantie que leurs modèles seraient performants en production sans que l'infrastructure ne devienne le goulet d'étranglement de leur business.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer