Oracle a accompli quelque chose qui pèse beaucoup plus que toute démonstration dans l'infrastructure : il a nommé Cerebras comme partenaire de puces pour son offre d'IA dans le cloud, au même niveau que Nvidia et AMD. Cette nouvelle, rapportée le 10 mars 2026, peut sembler être une simple ligne dans un communiqué. En pratique, cela fonctionne comme une validation de marché pour une entreprise qui se prépare à un grand saut : après avoir soumis ses documents d'IPO en 2024, levé 1,1 milliard de dollars à la fin de 2025 et atteint une valorisation de 8,1 milliards de dollars, Cerebras doit prouver qu'elle peut vendre au-delà de son histoire de "matériel impressionnant" et entrer dans un canal de distribution massif.
Cerebras ne cherche pas à gagner des âmes, mais des chiffres. Sa thèse est claire : l'inférence de modèles volumineux devient le goulet d'étranglement économique et opérationnel de l'IA, et son architecture de puce à échelle de plaquette vise à réduire la complexité des interconnexions et la latence. L'entreprise affirme qu'avec son WSE-3 et ses systèmes CS-3, elle atteint 1 800 jetons par seconde sur Llama 3.1 8B, alors que Nvidia ne parvient qu'à 90 jetons par seconde dans ce scénario comparatif révélés par des couvertures de marché. Ce type de chiffre ne suffit pas à gagner, mais cela ouvre des portes lorsque l'acheteur est un opérateur cloud dont le succès repose sur la promesse de performance à la demande.
Ce qui fait que la mention d'Oracle ait de l'importance ne réside pas seulement dans l'intégration technique. C'est le signal organisationnel : lorsqu'un hyperscaleur intègre un nouveau fournisseur, il signale qu'il a accepté le coût interne d'opérer une autre chaîne d'approvisionnement, une autre pile de support, d'autres outils et une autre négociation de capacité. Ce coût est à payer une fois et s'amortit avec le volume. Pour Cerebras, cela représente une transition de la vente de « systèmes » vers un mode où la demande devient récurrente et scalable.
La mention par Oracle est une porte commerciale, pas un applaudissement
Dans le marché des puces pour IA, la réputation se construit de façon asymétrique. Une startup peut publier des benchmarks pendant des années et rester marginale si elle n'apparaît pas dans le catalogue d'un grand fournisseur cloud. Inversement, une mention explicite d'Oracle place Cerebras sur le radar des DSI et des équipes d'achat qui ne liront jamais un livre blanc d'architecture. En infrastructure, le canal est le produit.
Oracle bouge également ses pions. La dépendance à Nvidia a été un atout lorsque l'objectif était d'« être dans l'IA » rapidement. Avec la demande croissante et les restrictions d'approvisionnement, les fournisseurs cloud doivent élargir leur menu pour gérer les coûts et la disponibilité. La mention de Cerebras aux côtés de Nvidia et AMD suggère une stratégie multidimensionnelle pour le calcul de l'IA, avec un intérêt particulier pour l'inférence, qui est la phase où les entreprises commencent à ressentir le coût quotidien et où le rendement par dollar devient une conversation plus acerbe.
Ce type d'association ne s'explique pas par le marketing, mais par les opérations : intégrer une puce non standard exige une ingénierie de plateforme, une intégration avec le logiciel qui orchestre les charges et un support pour les clients entreprises. Si Oracle effectue ce travail, c'est dans l'attente d'une demande qui justifie cette alternative. Cerebras, pour sa part, obtient une externalité positive difficile à acheter : la crédibilité opérationnelle. Pour une entreprise avec un potentiel d'IPO au deuxième trimestre 2026, cette crédibilité réduit la friction avec les investisseurs qui ne financent pas la technologie; ils financent la capacité de transformer la technologie en revenus récurrents.
Cerebras réduit le risque de concentration grâce à la distribution
Les chiffres historiques de Cerebras montrent un problème typique de sociétés de matériel spécialisé : concentration client. Au premier semestre 2024, 87% de ses revenus provenaient de G42, un client du Moyen-Orient. Pas besoin de dramatiser cela ; la concentration n'est pas un péché, mais une étape courante lorsqu'on vend une capacité très spécifique et coûteuse. Mais face à un marché public, cela devient un rabais automatique sur la valorisation, car cela augmente la volatilité des revenus et réduit le pouvoir de négociation du fournisseur.
C'est ici que le cloud change la géométrie des affaires. Vendre à un grand opérateur comme Oracle ne signifie pas simplement “un client de plus”. Cela signifie placer la technologie sous un modèle où l'opérateur revend la capacité à de nombreux clients, transforme les achats de capital en offre élastique et normalise la consommation par heure ou par charge. Ce pont peut diluer la concentration plus rapidement qu'une stratégie de vente entreprise traditionnelle, car l'équipe commerciale de Cerebras cesse de se battre contrat par contrat. Elle commence à capter la demande qui existe déjà au sein d'Oracle.
L'autre vecteur de diversification, D'après les récents rapports, est l'accord avec OpenAI, annoncé en janvier 2026, pour fournir 750 mégawatts de capacité jusqu'en 2028, valorisé à plus de 10 milliards de dollars et décrit comme un déploiement d'inférence à grande échelle. Bien qu'il n'y ait pas de détails contractuels publics, la taille de l'engagement suggère que Cerebras cherche à ancrer son expansion avec une demande garantie tout en bâtissant une infrastructure et une marque.
Il y a également une décision tactique qui passe souvent inaperçue : Cerebras déploie des unités CS-3 dans des centres de données d'inférence pour louer de la capacité et également vendre des systèmes. Cette dualité permet d'ajuster le portefeuille : ventes directes pour les clients qui souhaitent du contrôle et locations pour ceux qui préfèrent des dépenses opérationnelles. Pour une entreprise sortant d'une solide levée de fonds, cette flexibilité est importante car elle évite d'être piégée dans un seul modèle de monétisation lorsque le cycle change.
L'avantage technique n'a de valeur que si l'organisation sait l'emballer
Le débat technique autour de Cerebras tourne souvent autour de son approche de plaquette complète et de la promesse de performance. Ce qui semble le plus intéressant, en examinant cela comme un design organisationnel, c'est comment cet avantage sera emballé pour survivre à la réalité d'un hyperscaleur.
Nvidia domine grâce à son matériel, mais surtout grâce à sa discipline de plateforme : outils, bibliothèques, support, communauté et capacité de production. Pour se faire une place, Cerebras doit éviter l'erreur classique des entreprises de deep tech : mesurer ses progrès par des jalons d'ingénierie alors que le marché mesure par la disponibilité, la fiabilité et le coût total. L'association avec Oracle aide à ce niveau, car elle oblige à traduire l'avantage technique en un produit consommable, avec SLA, facturation, approvisionnement et support dans un environnement multi-locataire.
Du point de vue de son portefeuille, Cerebras joue sur deux tableaux à la fois :
Ce qui manque pour boucler la boucle n'est pas plus d'"innovation" dans le sens romantique. C'est une exécution industrielle : planification de capacité, chaîne d'approvisionnement, support technique au niveau exigé par le cloud, et une stratégie de prix qui capte la valeur sans effrayer le volume. Le chiffre de jetons par seconde peut attirer les gros titres, mais l'achat soutenu se produit lorsque le client peut prédire coût et rendement en production.
Oracle, en parallèle, effectue également un mouvement de portefeuille. Au lieu de parier tout sur un fournisseur dominant, il élargit sa base de puces pour répondre à la demande d'IA croissante et différencier son offre par rapport à d'autres cloud. Cela n'élimine pas Nvidia de l'équation, mais crée un espace où des fournisseurs alternatifs peuvent devenir "standard" dans une partie de leurs charges, en particulier l'inférence.
Le prélude à l'IPO s'écrit avec intégration et discipline de capacité
La narration entourant un IPO technologique est souvent remplie de promesses. Celle d'un fournisseur d'infrastructure s'écrit avec une toute autre encre : contrats, capacité installée, visibilité des revenus et risque maîtrisé. Cerebras entre en 2026 avec des éléments solides : financement important, valorisation connue et accords suggérant une demande matérialisée. Elle arrive aussi avec un défi prévisible : démontrer qu'elle peut évoluer sans que la croissance ne devienne un problème opérationnel.
Le fait que Morgan Stanley agisse en tant que banque principale et que l'entreprise aspire à lever environ 2 milliards de dollars lors d'une éventuelle sortie au deuxième trimestre 2026, selon les rapports de marché, exerce une pression sur l'organisation. À partir d'un certain moment, le problème cesse d'être "construire la meilleure puce" et se transforme en gouvernance stricte des priorités. Pour des entreprises de cette taille, l'ennemi interne est la dispersion : trop de variantes de produits, trop de promesses personnalisées, trop d'exceptions pour de grands clients. Le résultat est souvent des retards et des coûts qui grugent la marge.
Le plan d'expansion des infrastructures avec six nouveaux centres de données comprenant des milliers d'unités CS-3, cité dans les récentes couvertures, semble ambitieux. L'ambition n'est pas un problème ; cela l'est quand le financement et l'exécution ne sont pas alignés. L'enjeu est de transformer une expansion capitalistique en un système où l'utilisation est élevée et où le coût fixe devient rentable grâce au volume. Si la demande se concentre, le risque augmente. Si la demande se diversifie via le cloud, le risque diminue.
La mention d'Oracle agit comme un mécanisme de réduction de risque : elle ne garantit pas les ventes, mais réduit l'incertitude concernant l'accès à un grand canal de distribution. Pour les investisseurs, cela a souvent plus de valeur qu'un point supplémentaire de rendement, car le risque qui détruit la valeur dans le matériel n'est pas l'absence de vitesse ; c'est le désalignement entre l'investissement en capacité et l'adoption commerciale.
Le signal fort est que Cerebras entre dans le portefeuille opérationnel d'un cloud
Le marché lira la nouvelle comme "Cerebras joue maintenant dans la cour des grands". Moi, je le perçois différemment : Oracle a accepté le coût d'intégrer Cerebras dans son offre d'IA, et cela oblige Cerebras à se comporter comme un fournisseur d'infrastructure mature, pas comme un laboratoire d'ingénierie.
Cette transition est l'endroit où se séparent les gagnants des cas d'études. L'avantage de Cerebras peut être considérable en matière d'inférence, et les accords signalés indiquent une demande pertinente. La viabilité à long terme dépend de la capacité de son portefeuille à protéger les liquidités avec des contrats et une utilisation tout en finançant l'expansion sans gonfler la complexité interne. Cette combinaison maintient le présent rentable et laisse de l'espace opérationnel pour explorer et évoluer vers l'avenir.









