Mercor et le prix de construire sur du sable emprunté
Le 31 mars 2026, Mercor—la startup d'entraînement d'intelligence artificielle valorisée à 10 milliards de dollars—a confirmé publiquement ce que les chercheurs en cybersécurité suspectaient déjà : elle avait été piratée via LiteLLM, un outil open source intégré à son infrastructure. Le résultat : l'exfiltration d'environ 4 To de données, incluant 939 Go de code source de la plateforme, une base de données d'utilisateurs de 211 Go, près de 3 To d'enregistrements d'entretiens vidéo, des documents de vérification d'identité, des communications internes sur Slack, et des informations personnelles—y compris des numéros de sécurité sociale—de plus de 40 000 travailleurs indépendants.
En moins d'une semaine, au moins cinq actions collectives ont été déposées devant les tribunaux fédéraux en Californie et au Texas. Meta a suspendu indéfiniment tous ses contrats avec l'entreprise. MercorClaims.com est apparu en ligne presque immédiatement. Et le groupe Lapsus$ a mis aux enchères les données volées sur son site de fuites.
Ce que je vais analyser ici n'est pas l'attaque elle-même. Les détails techniques sont fascinants, mais l'histoire de fond est plus importante pour tout leader qui construit aujourd'hui une entreprise sur la promesse de l'intelligence artificielle.
Comment la vulnérabilité a été créée avant l'arrivée de l'attaquant
Le vecteur d'entrée était une attaque à la chaîne d'approvisionnement logicielle. Le groupe TeamPCP a exploité une vulnérabilité dans Trivy, un scanner de sécurité open source, pour voler les identifiants des mainteneurs. Avec ces identifiants, ils ont compromis deux versions de LiteLLM—une passerelle IA avec 95 millions de téléchargements mensuels—enregistrée sous le nom CVE-2026-33634. De là, ils ont obtenu un accès latéral à l'infrastructure de Mercor. Les versions malveillantes de LiteLLM ont été actives entre 40 minutes et 3 heures. Suffisant.
Le CISO d'AppOmni, Cory Michal, l'a décrit comme "une catégorie plus significative" que les attaques par injection de prompt, car elle compromet la couche d'infrastructure avant qu'il n'y ait eu de conversation avec le modèle. Ce n'est pas une attaque contre le produit ; c'est une attaque contre la fondation.
Voici le problème structurel qu'aucun communiqué de presse de Mercor ne résoudra : l'entreprise a construit une proposition de valeur de 10 milliards de dollars sur une dépendance critique qu'elle ne contrôlait pas, ne finançait pas et, selon les plaintes, n'a pas non plus auditée de manière rigoureuse. LiteLLM est gratuit et open source. Mercor ne la payait pas. Elle en bénéficiait. Et lorsque cela a échoué, elle a absorbé tout le dommage.
Ce n'est pas un problème exclusif à Mercor. C'est le modèle opérationnel d'une grande partie du secteur. Les startups d'entraînement d'IA construisent sur des couches d'outils ouverts car cela réduit leurs coûts variables à court terme. Mais cette réduction des coûts est, en termes plus précis, un transfert de risque vers les maillons inférieurs de la chaîne, vers les mainteneurs bénévoles, vers les travailleurs indépendants et, lorsque le système échoue, vers les 40 000 travailleurs dont le numéro de sécurité sociale circule désormais sur des marchés clandestins.
Le modèle extracteur que l'évaluation de 10 milliards cachait
Mercor opère dans le secteur de l'étiquetage et de l'entraînement des données d'IA. Sa proposition est de connecter des travailleurs indépendants —contractants dans la terminologie légale— avec des entreprises comme Meta, OpenAI, Anthropic et Google, pour effectuer des tâches de rétroaction humaine dont les modèles de langage ont besoin pour apprendre. C'est, en essence, une plateforme de travail fragmenté appliquée au segment le plus stratégique de l'économie technologique.
Le PDG de Y Combinator a souligné que les données exposées représentent "des milliards en valeur" et un risque pour la sécurité nationale, car elles incluent des critères de sélection de données, des protocoles d'étiquetage et des stratégies d'entraînement par renforcement avancées. Ce n'est pas une exagération. Ces informations, entre de mauvaises mains, représentent un avantage compétitif direct pour quiconque construit des modèles rivaux.
Mais examinons la structure de l'intérieur : les travailleurs indépendants qui ont généré cette valeur—dont les enregistrements d'entretiens, formulaires W-9 et conversations avec des systèmes d'IA ont été volés—étaient des travailleurs sans protection juridique standard. Ils ont remis des données biométriques, des informations fiscales et des heures de travail cognitif. En échange, ils ont reçu des paiements par tâche. Lorsque le système a échoué, les premiers à absorber le coût ont été eux : leurs identités exposées, leurs revenus interrompus lorsque Meta a suspendu les contrats, et maintenant ils doivent faire face aux frais de mitigation des risques d'identité que l'une des plaignantes dans les documents judiciaires quantifie comme des pertes directes.
NaTivia Esson, l'une des plaignantes, a travaillé pour Mercor entre mars 2025 et mars 2026. Elle a remis des formulaires W-9 avec ses informations personnelles. Aujourd'hui, elle paie de sa poche pour les services de protection de son identité que l'entreprise n'a pas fournis. C'est ce que cela signifie, en des termes opérationnels concrets, dans un modèle où le risque est externalisé vers les maillons les plus faibles de la chaîne.
L'architecture financière qui permet une valorisation de 10 milliards exige des marges élevées. Les marges élevées dans les plateformes de travail fragmenté proviennent, en partie, de la classification des travailleurs comme contractants indépendants—ce qui élimine les coûts des avantages, des assurances et de la protection des données qui seraient obligatoires avec des employés. Cette économie structurelle est exactement ce qui transforme la violation de données en une catastrophe juridique : sans relation de travail formelle, l'entreprise a maintenu l'accès à des informations hautement sensibles sans assumer les obligations de garde que ces informations exigent.
Ce que le silence réglementaire a amplifié
Le 9 avril 2026, le cabinet Schubert Jonckheer & Kolbe a annoncé publiquement que Mercor n'avait pas informé les procureurs généraux des États de la violation, ce qui pourrait constituer une violation des lois de notification d'incidents de plusieurs États. Mercor n'a pas répondu aux demandes de commentaire. Berrie AI, développeur de LiteLLM, non plus. Delve Technologies, la firme qui avait certifié la conformité réglementaire de Berrie AI et qui est aujourd'hui confrontée à des accusations de "conformité falsifiée comme service" de la part d'un dénonciateur anonyme, n'a pas répondu non plus.
Le silence coordonné de trois acteurs impliqués dans une chaîne d'échec est, en soi, une information stratégique. Lorsque aucune partie ne parle, c'est généralement parce qu'aucune partie n'a de récit qui résiste à l'examen. Ce qui résiste à l'examen, ce sont les faits : une entreprise de conformité a certifié la sécurité d'un outil qui a été compromis. Ce modèle de conformité automatisée—où l'on certifie sans auditer—est le GRC (gouvernance, risque et conformité) devenu un spectacle.
Ce modèle a des conséquences qui vont au-delà de Mercor. Si les certifications de sécurité dans le secteur de l'IA peuvent être acquises sans correspondre à des contrôles réels, alors le marché fonctionne avec une information asymétrique structurelle. Les clients comme Meta ou OpenAI prennent des décisions d'intégration en supposant que leurs fournisseurs ont réussi de véritables audits. Lorsque ces audits sont symboliques, le risque ne disparaît pas : il se redistribue en amont jusqu'à ce qu'un incident le rende visible.
Meta a déjà absorbé cette redistribution. La suspension indéfinie de tous ses contrats avec Mercor—y compris les projets de son unité d'intelligence artificielle avancée, TBD Labs—n'est pas seulement une décision de gestion des risques. C'est le signal qu'une entreprise avec la sophistication opérationnelle de Meta ne peut pas supposer que ses fournisseurs ont les contrôles qu'ils disent avoir. Le coût de cette vérification, que Meta a implicitement délégué à Mercor, devient désormais un coût interne que Meta devra absorber pour tout fournisseur équivalent à l'avenir.
Le modèle qui survit à ses propres erreurs
Il existe une différence structurelle entre une entreprise qui croît rapidement en externalisant ses risques et une autre qui croît de manière soutenue parce qu'elle les internalise et les gère comme partie de sa proposition de valeur. Mercor, avec sa valorisation de 10 milliards, représentait la première catégorie. La question que le secteur doit maintenant traiter est de savoir s'il existe un espace commercial pour la seconde.
La réponse est affirmative, et il y a une logique commerciale derrière cela. Une plateforme d'entraînement d'IA qui classifie ses travailleurs comme des employés avec une protection des données garantie, qui paie pour les outils d'infrastructure qu'elle utilise—ou contribue activement à leur entretien—et qui soumet ses certifications de sécurité à de réelles audits indépendantes, aura des coûts opérationnels plus élevés. Elle aura également un risque juridique, réputationnel et opérationnel significativement moindre. Dans un secteur où un seul incident peut entraîner la suspension de contrats avec les plus grands clients du monde et déclencher des actions collectives dans plusieurs juridictions, cette réduction de risque a une valeur économique mesurable.
Le PDG de Y Combinator a affirmé que les données volées représentent un risque pour la sécurité nationale. Si cela est vrai—et il y a des raisons de le prendre au sérieux—alors le modèle économique qui protège ces données avec des certifications sur papier n'est pas seulement éthiquement discutable. Il est stratégiquement inviable à moyen terme.
Les leaders qui construisent aujourd'hui sur une infrastructure open source sans la financer, sur des travailleurs indépendants sans les protéger, et sur des certifications de conformité sans les vérifier, prennent une décision financière : ils choisissent des marges plus élevées aujourd'hui en échange de la concentration du risque sur un événement futur qui, lorsqu'il se produira, sera leur problème exclusif. Mercor vient de démontrer combien coûte cet événement.











