Le mémo qu'OpenAI ne voulait pas écrire
Le 9 avril 2026, OpenAI a distribué à ses actionnaires un mémo attaquant directement Anthropic, décrivant son rival comme une entreprise opérant à une échelle "significativement plus petite". Cette phrase est techniquement exacte : elle fait appel aux lois de mise à l'échelle des modèles de langage, l'argument selon lequel la performance augmente avec le pouvoir de calcul et les données, et qu'Anthropic n'a tout simplement pas les ressources pour atteindre OpenAI. C'est un argument valide. Et, paradoxalement, c'est aussi un signal d'alarme.
Les leaders de marché aux positions établies n'ont pas besoin d'expliquer à leurs actionnaires pourquoi le deuxième joueur est inférieur. Ce sont ceux qui ressentent que la distance se réduit qui le font. Que la valorisation d'Anthropic ait dépassé 60 milliards de dollars, que ses modèles Claude soient intégrés par des entreprises comme Salesforce et Notion, et que plus de 430 employés de Google et d'OpenAI aient signé une lettre publique soutenant les lignes rouges d'Anthropic dans les contrats avec le Pentagone sont des données qui ne se résolvent pas par un mémo. Elles se résolvent par une stratégie.
La renonciation qu'Anthropic a transformée en positionnement
Le déclencheur de ce cycle de tensions a été un contrat avec le Département de la Défense des États-Unis. Anthropic a refusé de signer un accord permettant l'utilisation de sa technologie pour "tout objectif licite", exigeant en revanche deux exceptions spécifiques : que son IA ne soit pas utilisée pour des armes autonomes complètes ni pour une surveillance domestique massive. OpenAI a accepté le contrat sous des termes plus larges, bien qu'il ait ensuite reconnu que le contrat initial "semblait négligent et opportuniste" et a négocié des restrictions supplémentaires.
Ce moment est, de mon point de vue en tant que stratège, le plus révélateur de toute l'histoire. Anthropic a sacrifié un contrat gouvernemental de 200 millions de dollars. Il ne l'a pas reporté, ni renégocié jusqu'à la limite, ni recherché un langage ambigu qui lui permettrait de signer avec une conscience tranquille. Il a dit non. Cette renonciation a un coût financier immédiat et concret, mais elle a également un effet de positionnement que n'importe quelle campagne de marketing ne peut acheter : la perception de cohérence entre ce que l'entreprise déclare et ce qu'elle fait.
Le PDG d'Anthropic, Dario Amodei, a commis l'erreur tactique de transformer ce moment de force en munitions pour ses critiques, en divulguant un mémo interne où il qualifiait l'équipe d'OpenAI de "crédule" et ses partisans d'"idiots de Twitter". Ce mémo a été rédigé, selon sa propre explication ultérieure, quelques heures après une série d'annonces chaotiques. Sa rétractation publique a été franche : il a reconnu que le ton ne reflétait pas ses positions réfléchies. Le dommage réputationnel a été réel, surtout parmi les 430 signataires de cette lettre qui l'avaient soutenu publiquement quelques jours auparavant.
Mais il y a quelque chose d'important qui ne change pas avec ce faux pas communicationnel : la décision stratégique de fond est restée intacte. Anthropic n'a pas renversé sa position. Il n'a pas signé le contrat après la pression. Cette cohérence entre la décision et le principe directeur est ce qui détermine si une entreprise a une stratégie ou simplement de bonnes intentions.
Ce que le mémo d'OpenAI dit à ses propres actionnaires
Revenons au mémo d'OpenAI, car c'est le document le plus intéressant de cette histoire. Une entreprise qui, dans des conditions normales, évite de nommer ses concurrents dans ses communications publiques a décidé, dans une communication destinée à ses propres actionnaires, d'attaquer explicitement Anthropic sur son échelle. La logique apparente est rassurante : "notre rival est plus petit, il ne peut pas nous rattraper".
La logique réelle est inverse. Les actionnaires étaient déjà inquiets. L'existence du mémo ne crée pas l'inquiétude, elle y répond. Et l'argument technique qu'OpenAI utilise, qui indique qu'Anthropic opère sur une courbe d'échelle inférieure, a un problème structurel : c'est exactement ce que n'importe quelle entreprise dominante a dit de ses challengers avant de perdre des parts de marché. IBM l'a dit à propos de Microsoft. Microsoft l'a dit à propos de Google. L'argument d'échelle est valable en laboratoire ; sur le marché, il perd face à l'argument de confiance et d'adéquation.
Les entreprises qui intègrent Claude d'Anthropic dans leurs plateformes ne le font pas parce que c'est moins cher ou plus grand. Elles le font parce que, dans les segments où la gouvernance de l'utilisation de l'IA importe, la trajectoire des décisions d'Anthropic construit un argument de confiance qu'OpenAI essaie encore d'articuler. L'avantage compétitif dans le segment B2B ne se mesure pas en pétaflops ; il se mesure en termes de perception d'alignement des incitations entre fournisseur et client.
OpenAI a un problème de cohérence interne que cet épisode expose clairement. Il a accepté un contrat qu'il a ensuite reconnu comme apparemment négligent. Ce n'est pas un accident communicationnel ; c'est un signe que les processus de décision sur des contrats sensibles n'étaient pas alignés avec le message public de l'entreprise sur la sécurité. Lorsque l'équipe d'OpenAI a dû renégocier les termes pour exclure explicitement la surveillance domestique massive, cela s'approchait, en fait, des conditions qu'Anthropic avait exigées depuis le début.
Une industrie qui ne peut plus faire semblant que l'échelle résout tout
Ce que ce conflit révèle, au-delà des tensions entre deux entreprises spécifiques, c'est que le marché de l'intelligence artificielle est en train d'entrer dans une phase de maturation où l'argument de la taille n'est plus suffisant pour remporter des contrats importants et sensibles. Les entreprises exposées à des régulations, les gouvernements qui doivent justifier leurs décisions d'acquisition technologique, et les équipes technologiques répondant à des conseils d'administration de plus en plus alertes au sujet des risques réputationnels, commencent à évaluer leurs fournisseurs d'IA selon des critères qui vont au-delà des performances des modèles.
Dans ce contexte, la position qu'Anthropic a construite, à un coût de renoncer à un contrat de 200 millions de dollars et de subir une crise de relations publiques à cause du mémo de son propre PDG, a une valeur stratégique que sa valorisation de 60 milliards de dollars commence à peine à refléter. Non pas parce qu'Anthropic est une entreprise parfaite, mais parce que ses renoncements sont cohérents avec sa proposition de valeur, et cette cohérence est exactement ce pour quoi les clients B2B paient.
OpenAI, avec tous ses avantages en matière d'échelle, a une tâche plus difficile que ce que son mémo suggère : construire la confiance institutionnelle qui permet de réussir dans le segment le plus exigeant du marché. L'échelle amplifie les capacités d'un modèle. Elle n'amplifie pas la crédibilité des décisions de ses dirigeants.
La leçon pour tout C-Level observant ce conflit de l'extérieur est directe et sans fioritures : le positionnement stratégique le plus durable ne se construit pas en choisissant ce que l'on veut offrir, mais en maintenant avec cohérence ce que l'on a décidé de ne pas faire, même lorsque le coût de cette renonciation apparaît dans les résultats du trimestre suivant. Les entreprises qui essaient d'être disponibles pour tous les clients, dans toutes les conditions, avec tous les usages possibles, finissent par ne pas conquérir le marché total. Elles finissent par devenir irrélevantes dans le segment qui compte le plus.









