Microsoft decidió intervenir públicamente en una pelea que, en apariencia, era entre el Pentágono y una startup. Presentó un escrito de apoyo a Anthropic para frenar en tribunales la designación del Departamento de Defensa de EE. UU. que califica a la compañía como “riesgo de cadena de suministro para la seguridad nacional” y, en consecuencia, prohíbe a contratistas y proveedores militares trabajar con ella. El argumento de Microsoft fue directo: la implementación inmediata impondría “costos y riesgos sustanciales y de amplio alcance” para Microsoft y para contratistas del gobierno que dependen de la tecnología de Anthropic en contratos del DoD. La noticia, más que un choque ideológico sobre “salvaguardas”, revela un problema de arquitectura económica: cuando se corta una pieza que funciona como capa base, el costo aparece en toda la red.
Los hechos disponibles son claros. A fines de febrero de 2026, el DoD designó a Anthropic como riesgo de cadena de suministro. La medida se atribuye a un desacuerdo sobre salvaguardas: Anthropic se negó a permitir que sus modelos Claude apoyaran aplicaciones letales, vigilancia masiva de estadounidenses o armas autónomas sin control humano. El 9 de marzo de 2026, Anthropic demandó en una corte federal de California a autoridades y agencias federales buscando bloquear temporalmente la orden y prevenir su aplicación permanente. Al día siguiente, 10 de marzo, Microsoft presentó su escrito de apoyo. En paralelo, Google comunicó que continuaría trabajando con Anthropic en proyectos no vinculados a defensa, y voces de la industria, incluyendo el CEO de OpenAI, pidieron al Pentágono no proceder. En una audiencia en San Francisco, Anthropic sostuvo que podría perder miles de millones de dólares en ingresos este año si la designación se mantiene.
Este caso importa para startups por una razón incómoda: no se trata solo de reputación o ética de producto. Se trata de riesgo regulatorio que se vuelve riesgo comercial sistémico. En IA, donde la integración técnica con clientes y socios es profunda, la “expulsión” de un proveedor no es un evento puntual; es una reconfiguración cara de contratos, plazos, auditorías, cumplimiento y responsabilidad.
La etiqueta de “riesgo” convierte dependencias técnicas en pasivos financieros
La decisión del DoD transforma una relación comercial en un pasivo inmediato para terceros. El detalle decisivo de la noticia no es la existencia de un plan de salida, sino su asimetría. Según el reporte, el presidente Donald Trump ordenó a las agencias federales eliminar gradualmente los modelos de Anthropic en seis meses, pero los contratistas no tienen ese período de transición. Ese diseño mueve el costo desde el Estado hacia la cadena privada que ejecuta el trabajo.
En términos operativos, un contratista que usaba Claude como componente de un sistema —sea para análisis, soporte, traducción o automatización— pasa a enfrentar un corte abrupto. El sustituto no es plug-and-play. Reentrenar o adaptar prompts, rediseñar integraciones, recertificar cumplimiento, renegociar cláusulas con clientes y asegurar continuidad de servicio tiene costo directo. También hay costo de oportunidad: equipos que estaban entregando producto pasan a hacer migración. Microsoft lo expresó con el lenguaje más útil para entender el incentivo: “costos y riesgos sustanciales”. En otras palabras, el cambio no solo encarece; introduce incertidumbre contractual.
Aquí se ve una dinámica típica de compras complejas: cuando la capa tecnológica se convierte en “fundacional” dentro de productos de defensa, el valor ya no está solo en el modelo, sino en el conjunto de integraciones y procesos que lo rodean. Al bloquear al proveedor de esa capa, el DoD no castiga únicamente a la startup. Castiga, de forma indirecta, a quienes invirtieron en construir sobre ella. Esa transferencia de costo suele terminar en dos lugares: o la absorbe el contratista reduciendo margen, o la traslada en precio al comprador, o ambas.
El elemento más delicado es el precedente. Si una salvaguarda de uso puede activar una designación de riesgo con efecto inmediato, el costo de firmar contratos con startups de IA aumenta. No por el precio del modelo, sino por el costo esperado de un corte forzoso. Ese costo esperado se incorpora en decisiones de compra y en la estructura de contratos. Para una startup, eso significa que el mercado empieza a exigir garantías, redundancia, o descuentos para compensar el riesgo.
Microsoft y Google están defendiendo algo más que a Anthropic
Microsoft tiene un número en juego: se comprometió a invertir hasta 5.000 millones de dólares en Anthropic en una alianza ampliada anunciada en noviembre de 2025, junto con Nvidia. Google, por su parte, acumula aproximadamente 3.000 millones de dólares invertidos en Anthropic hasta inicios de 2026, y el 9 de marzo ratificó que seguirá colaborando en trabajos no vinculados a defensa.
Sería fácil leer estas posturas como política corporativa. Yo lo leo como defensa de un activo económico: la capacidad de las grandes plataformas de ofrecer a sus clientes una cartera de modelos y proveedores sin que cada integración se convierta en riesgo existencial. En IA, el “producto” de un hyperscaler no es solo cómputo; es la promesa de continuidad y abastecimiento. Cuando un regulador bloquea a un proveedor relevante, esa promesa se vuelve más cara de cumplir.
La frase atribuida a Microsoft en el reporte resume la tesis de negocio: el DoD “necesita acceso confiable a la mejor tecnología del país”, y Microsoft pidió tiempo para “encontrar un terreno común” sobre salvaguardas. Detrás de esa posición hay una lógica contractual: si el Estado exige rendimiento y seguridad, pero genera discontinuidad sin transición para contratistas, el costo de cumplimiento se dispara y el apetito por adoptar tecnología emergente se reduce.
Google eligió una ruta distinta: blindó la continuidad fuera de defensa. Esa decisión reduce la volatilidad del vínculo comercial con Anthropic y protege su propia oferta de nube en sectores no militares. También marca una segmentación: la empresa puede seguir capturando valor en usos civiles mientras el frente de defensa se judicializa.
En paralelo, el apoyo de empleados de OpenAI y Google a un escrito amicus separado, y el pedido del CEO de OpenAI para que el Pentágono no avance, sugiere que la industria percibe un riesgo transversal. No hace falta romanticismo para entenderlo: si hoy se bloquea a un proveedor por sostener ciertas restricciones de uso, mañana otros proveedores pueden endurecer o flexibilizar políticas por miedo a sanciones. Ese péndulo no mejora la seguridad; encarece la coordinación.
El conflicto sobre salvaguardas es, en la práctica, una disputa de asignación de costos
El origen declarado del choque es que Anthropic no quiso permitir usos asociados a aplicaciones letales, vigilancia masiva doméstica o armas autónomas sin control humano. El CEO de Anthropic, Dario Amodei, fue citado diciendo que la IA no debería usarse para vigilancia masiva doméstica ni para poner al país en una situación donde máquinas autónomas puedan iniciar una guerra. El DoD, según el reporte, rechazó esas preocupaciones y avanzó con la lista negra.
Más allá del debate normativo, lo que cambia el tablero es el mecanismo escogido: una designación de “riesgo de cadena de suministro” con efecto inmediato sobre proveedores privados. Es un instrumento pensado para cortar dependencia, pero aplicado así crea una externalidad negativa: obliga a múltiples empresas a pagar, de golpe, el costo de cambiar de proveedor sin el tiempo mínimo para gestionar migración, control de calidad y continuidad.
En la audiencia ante la jueza federal Rita F. Lin, Anthropic argumentó urgencia por potencial pérdida de miles de millones en ingresos este año. Esa cifra, sin mayor desglose en la fuente, importa por lo que implica: una parte material de su negocio está ligada directa o indirectamente a la demanda vinculada a defensa y a proveedores que sirven al Estado. Cuando la orden prohíbe a contratistas trabajar con la compañía, no se pierde solo un cliente; se pierde un canal.
Aquí aparece la tensión clásica en tecnología: el Estado quiere capacidad y control. Los proveedores quieren límites de uso y certeza contractual. Si el Estado responde con un bloqueo inmediato, su señal al mercado es que el cumplimiento no se negocia; se impone. El problema es que, sin transición equivalente para contratistas, esa imposición se financia con la caja y el riesgo operativo de terceros. Y cuando un actor paga por decisiones de otro sin tener agencia, el resultado típico es retracción: menos adopción, más burocracia y contratos más caros.
Para startups, el aprendizaje es duro: en sectores de alta sensibilidad, las salvaguardas no solo son un posicionamiento; son una variable que puede activar sanciones que destruyen distribución y canales. Para el Estado, el aprendizaje también debería serlo: si se penaliza a quien fija límites y, a la vez, se exige innovación rápida, se termina comprando “cumplimiento” a costa de diversidad de proveedores.
La cadena de defensa se encarece cuando se rompe la preferencia por permanecer
Microsoft advirtió sobre disrupciones costosas porque su exposición es doble: como inversor con un compromiso de hasta 5.000 millones de dólares, y como proveedor de infraestructura y servicios a clientes que pueden depender de Anthropic como componente. Anthropic, por su parte, enfrenta un golpe potencial de ingresos por miles de millones, y los contratistas se quedan con el problema operativo inmediato por ausencia de transición. Google limita daño con continuidad fuera de defensa, pero la señal de riesgo regulatorio queda instalada.
En mi experiencia analizando cadenas de valor, este tipo de medidas no se evalúa por el “mensaje” sino por el resultado económico agregado. Si el DoD corta a un proveedor y obliga a la cadena privada a migrar sin ventana, el costo total del sistema sube. Ese costo se traduce en menos competencia en proveedores de IA para defensa, contratos más rígidos, márgenes comprimidos para contratistas y precios más altos para el comprador final. La política puede lograr alineamiento, pero lo compra con fricción.
La batalla legal definirá si la orden se bloquea temporalmente y cómo se gestiona la implementación. Lo que ya quedó definido es el patrón de distribución: el DoD captura control inmediato, mientras Anthropic, Microsoft y los contratistas absorben la factura de la discontinuidad. En cadenas complejas, gana valor quien reduce incertidumbre y hace que sus socios prefieran quedarse; lo pierde quien convierte a sus aliados en daños colaterales de una decisión sin transición.











