El Pentágono convierte la seguridad de IA en cláusula contractual

El Pentágono convierte la seguridad de IA en cláusula contractual

La orden de retirar Claude de sistemas sensibles no es solo una pelea por “guardrails”. Es una señal de que, en defensa, el producto es obediencia operativa bajo ley y el proveedor pasa a ser una pieza reemplazable del suministro.

Clara MontesClara Montes11 de marzo de 20266 min
Compartir

Escribo esto con una idea fija: en defensa, la IA no compite solo por calidad del modelo. Compite por encajar en una cadena de mando, en compras públicas y en un régimen de responsabilidad legal donde el cliente no negocia su margen de acción.

El 27 de febrero de 2026, el Departamento de Defensa de Estados Unidos emitió un memo ordenando a sus comandantes retirar los modelos Claude de Anthropic de “sistemas clave” en un plazo de 180 días, tras la cancelación de un contrato de 200 millones de dólares para desplegar IA en redes militares clasificadas, según CBS News. La secuencia que describe la fuente es directa: el 24 de febrero, el secretario de Defensa Pete Hegseth planteó a Dario Amodei, CEO de Anthropic, un ultimátum para eliminar salvaguardas que prohibían el uso para vigilancia doméstica masiva y armas totalmente autónomas. Amodei se negó. Ese mismo día, el presidente Donald Trump publicó en Truth Social una orden para que todas las agencias federales cesaran “inmediatamente” el uso de la tecnología de Anthropic, con el Pentágono como excepción temporal de seis meses para la retirada.

La escalada continuó el 4 de marzo de 2026, cuando el Pentágono designó formalmente a Anthropic como “riesgo de cadena de suministro para la seguridad nacional”, efectiva de inmediato, limitando su uso en contratos del DoD. Anthropic respondió con una demanda contra la administración Trump, alegando violaciones del Administrative Procedure Act, represalias bajo la Primera Enmienda y falta de debido proceso bajo la Quinta. En una declaración citada por CBS, el CFO Krishna Rao advirtió pérdidas potenciales de ingresos en 2026 por “múltiples miles de millones de dólares”, incluyendo 150 millones de dólares de ingresos recurrentes anuales vinculados a contratos con el Pentágono y un impacto adicional por la exposición a contratistas de defensa.

Lo que parece un choque de principios es, en el fondo, un choque de definición de producto.

Cuando el cliente compra margen de acción, las salvaguardas se vuelven fricción

El Pentágono no estaba comprando “un modelo útil” en abstracto. Estaba comprando capacidad operativa para entornos clasificados y misiones reales, con integración en flujos de inteligencia, targeting y comando. CBS reporta que el uso de Claude ya era profundo: se mencionó que el Comando Indo-Pacífico (INDOPACOM) era el usuario “principal” y que estimaciones internas situaban la remoción entre tres y doce meses por la necesidad de reconfigurar entradas de datos y dependencias.

Desde el lado de Anthropic, las “líneas rojas” estaban embebidas como restricciones del producto: prohibiciones contra vigilancia doméstica masiva y armas totalmente autónomas. En un mercado corporativo tradicional, esas restricciones pueden convertirse en diferenciación reputacional y en gestión de riesgo para clientes que temen daños de marca o litigios. En defensa, según el encuadre que recoge CBS, el DoD exigía “flexibilidad total en cualquier uso legal”, argumentando que la ley estadounidense, no la política de una empresa, debía gobernar el empleo militar.

Aquí hay un matiz que muchos equipos comerciales subestiman: cuando una organización “contrata” una tecnología para ejecutar decisiones soberanas, el valor percibido se mide en control, disponibilidad y previsibilidad bajo presión. Un sistema que se reserva el derecho de decir “no” en escenarios extremos introduce un costo no lineal: no es un costo por token o por licencia; es un costo por incertidumbre en el momento de máxima exigencia.

Por eso la discusión no se resuelve con un debate abstracto sobre seguridad. Se resuelve como un problema de compras públicas: si el comprador concluye que el proveedor condiciona el uso, entonces redefine al proveedor como riesgo de suministro. La etiqueta de “supply chain risk” no describe un fallo técnico; describe una incompatibilidad entre el contrato psicológico del cliente y el diseño del producto.

La etiqueta de “riesgo de cadena de suministro” reescribe la economía del proveedor

La designación del 4 de marzo es el punto de quiebre. Según CBS, el alcance era estrecho en su redacción: Claude quedaba prohibido solo “como parte directa” de contratos del DoD, mientras que Amazon, Google y Microsoft podían seguir ofreciendo Claude de forma comercial, excluyendo trabajo de defensa. Esa precisión importa por dos motivos.

Primero, porque crea un incentivo para segmentar producto y canal. Las grandes nubes pueden aislar la exposición a defensa, absorber requisitos específicos y proteger su negocio civil. Para una empresa como Anthropic, cuyo crecimiento depende de contratos de alto volumen y de la credibilidad institucional, la etiqueta de riesgo afecta menos a la distribución comercial y más al núcleo que valida la “seriedad” del producto: el despliegue en entornos clasificados.

Segundo, porque altera la negociación con el resto de la industria de defensa. CBS señala el impacto en socios como Palantir, que había usado Claude en Maven Smart System. En términos de poder, esto opera como una orden de red: cuando el DoD restringe un componente, todo contratista que quiera venderle al DoD debe rediseñar su stack. En la práctica, el gobierno se convierte en el arquitecto de la demanda y obliga a costos de migración que rara vez paga de forma explícita.

Desde una óptica financiera, la cifra de 150 millones de dólares de ARR en contratos del Pentágono es solo la parte visible. El riesgo mayor es el efecto de segunda vuelta: si contratistas y agencias civiles (CBS menciona planes de Tesoro y GSA de detener negocios) internalizan que el proveedor puede quedar fuera por decreto, el costo de adoptarlo sube de golpe. No porque sea peor, sino porque la continuidad se vuelve dudosa. Esa duda se traduce en cláusulas, auditorías, “plan B” obligatorio y, finalmente, en menor disposición a comprometerse.

La demanda de Anthropic intenta frenar ese cambio de estatus. Pero, mientras corre el proceso, la economía diaria manda: los equipos de adquisición y los integradores se mueven hacia lo que tiene menor fricción política.

El cambio de proveedor expone un patrón de mercado, no solo un incidente

La cronología que recoge CBS es quirúrgica en su simbolismo. Horas después del memo del 27 de febrero, OpenAI firmó un acuerdo con el Pentágono. Y aunque la prohibición formal avanzaba, CBS reporta que la Operación Epic Fury, lanzada el 28 de febrero, siguió usando Claude para inteligencia y targeting sobre Irán en el corto plazo. Esa convivencia de “prohibido” y “aún en uso” no es incoherencia: es dependencia.

Cuando una organización está atrapada en dependencia tecnológica, el reemplazo nunca es instantáneo, por más dura que sea la orden. Hay integraciones, permisos, flujos de datos, entrenamiento de usuarios, y, sobre todo, procedimientos operativos donde la IA ya alteró la forma de trabajar. Por eso los estimados internos de remoción oscilaban entre tres y doce meses, incluso con un plazo oficial de 180 días.

Este episodio revela un patrón que veo repetirse en innovación: el cliente no contrata “IA segura” como consigna. Contrata una combinación de tres cosas muy concretas: velocidad de despliegue, control sobre la ejecución y cobertura política cuando algo sale mal. Anthropic estaba ofreciendo una IA con restricciones incorporadas. El DoD estaba comprando una IA que no renegocia su conducta en el momento crítico.

En ese choque, gana quien convierte su producto en infraestructura obediente. Eso no significa “sin controles”; significa controles definidos por el comprador, auditables por el comprador y gobernables por el comprador. En defensa, la empresa que pretenda mantener guardrails como política unilateral debe asumir que esa elección funciona como una condición de servicio que el cliente puede clasificar como riesgo.

La implicación para el resto del mercado es incómoda y operativa. Si los grandes compradores públicos normalizan la categoría “riesgo de cadena de suministro” por razones de restricciones de uso, entonces cualquier proveedor de IA empresarial con políticas de denegación fuertes enfrenta un nuevo tipo de evaluación: no solo se medirá precisión, latencia o costo; se medirá capacidad de alinearse con el marco legal del cliente sin imponer vetos propios.

La lección para empresas de IA es diseñar gobernanza como producto

CBS reporta que Anthropic siguió suministrando Claude al DoD a costo nominal durante la transición y que había conversaciones “productivas” recientes sobre salvaguardas. Ese detalle sugiere que el puente no está totalmente quemado: incluso en conflicto, el comprador necesita continuidad y el proveedor necesita tiempo para defender su posición.

Pero el giro estructural ya ocurrió. El DoD ordenó a los comandos auto-reportar el uso de Claude y priorizar la transición. Esa práctica de inventario forzado es un mecanismo de control de dependencia. En términos de diseño de negocio, la pregunta que queda cerrada es simple: el cliente quiere que el proveedor venda un componente, no que gobierne su uso.

Para un CEO o CFO en IA, esto reordena el mapa de producto.

1) La gobernanza ya no es un documento, es una interfaz contractual. Si las restricciones viven “dentro” del modelo sin una capa de administración aceptable para el cliente, el cliente interpretará esa restricción como pérdida de soberanía operativa.

2) El riesgo político se convierte en riesgo de ingresos. La advertencia de Krishna Rao sobre pérdidas por “múltiples miles de millones” no depende solo de un contrato, sino del contagio reputacional en compras públicas y defensa.

3) La migración es parte del valor. Si remover un modelo toma entre tres y doce meses, el costo real de adopción incluye salida, no solo entrada. Quien empaquete herramientas de transición, auditoría y compatibilidad reduce el temor del comprador y gana licitaciones.

El punto ciego típico de las startups de IA es creer que el modelo es el producto. En verticales de alto riesgo, el producto es el sistema completo: permisos, trazabilidad, continuidad operativa, reglas de uso y quién tiene la llave final.

Cierro con una afirmación técnica sobre comportamiento del cliente: este episodio muestra que el Pentágono estaba contratando una capacidad de IA para aumentar su margen de acción bajo ley y cadena de mando, y cualquier proveedor cuya propuesta incluya vetos unilaterales termina compitiendo como un insumo reemplazable, no como un socio estratégico.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar