La demanda de Anthropic al Pentágono revela el precio del control
Cuando una empresa de IA vende a gobierno, no está vendiendo solo capacidad de cómputo y respuestas útiles. Está vendiendo una promesa de continuidad: que el modelo estará disponible mañana, que la cadena de proveedores no se romperá por política, y que el comprador no quedará expuesto a un giro abrupto de condiciones. En esa promesa vive la confianza.
Anthropic acaba de poner esa confianza en el centro de un choque frontal con el Departamento de Defensa de Estados Unidos. Según el reporte de Fortune, la compañía firmó en julio de 2025 un contrato de 200 millones de dólares con el Pentágono y, ocho meses después, la administración Trump la designó como “riesgo para la cadena de suministro”, ordenando a las agencias federales dejar de usar Claude y ampliando la presión a cualquiera que trabaje con el aparato militar. La disputa se detonó porque Anthropic se negó a remover restricciones de seguridad que, de acuerdo con las fuentes citadas, impedían usos como armas autónomas y vigilancia masiva de estadounidenses. Anthropic respondió con dos demandas: una vinculada a derechos de la Primera Enmienda por presunta represalia basada en sus posiciones, y otra contra la propia designación de “riesgo”.
A nivel de titulares, parece un episodio más de la politización del sector tecnológico. A nivel de psicología económica, es algo más incómodo: el recordatorio de que, en mercados donde el Estado es cliente y árbitro, el “producto” que realmente se compra es la reducción de ansiedad institucional. Y esa ansiedad no se mitiga con benchmarks.
Cuando el comprador es el regulador, el producto se vuelve obediencia operativa
En el papel, la ecuación es sencilla. El gobierno necesita modelos potentes para tareas de defensa y seguridad. Los proveedores compiten por precio, rendimiento y capacidad de despliegue. Fortune incluso señala que Claude superaba a ChatGPT en múltiples benchmarks empresariales relevantes, lo que ayuda a explicar por qué Anthropic había logrado tracción en el segmento corporativo.
En la práctica, el mecanismo de compra se parece menos a un concurso técnico y más a una negociación de riesgo reputacional. Un departamento gubernamental no solo evalúa precisión o latencia: evalúa qué tan probable es que el proveedor le cambie las reglas a mitad del partido, o que el vínculo se convierta en un conflicto público. Ese cálculo no es “racional” en el sentido clásico; es defensivo. En estructuras jerárquicas, el incentivo dominante es evitar el incidente que termine en portada.
Bajo esa lógica, las restricciones de seguridad de Anthropic funcionan como una señal ambivalente. Para una parte del mercado, son un seguro: reducen la probabilidad de usos catastróficos y, por extensión, de escándalos. Para otra parte, son una cláusula de incertidumbre: indican que el proveedor se reserva un veto sobre ciertas aplicaciones. El reporte describe que el Pentágono buscó “acceso sin restricciones” y que la negativa derivó en la escalada.
El punto de fondo es que, cuando el comprador tiene capacidad de castigar más allá del contrato, el riesgo deja de ser solo contractual. La designación como “riesgo para la cadena de suministro” no opera como una simple terminación comercial. Opera como una etiqueta que contamina a terceros. Y en mercados con alta dependencia de compras públicas, esa etiqueta es el equivalente a subir el costo psicológico de elegirte.
La etiqueta “riesgo” es un arma de fricción cognitiva en cadena
Fortune describe un efecto dominó: contratistas y grandes proveedores tecnológicos podrían verse presionados a certificar “cero exposición” a productos de Anthropic para preservar relaciones con el gobierno. Aquí aparece el fenómeno que más me interesa como analista de comportamiento del consumidor aplicado a negocio: el cliente corporativo no decide solo por utilidad, decide por facilidad de justificación.
En escenarios de ambigüedad, las organizaciones se refugian en heurísticas. Una de las más comunes es la de autoridad: si el Estado etiqueta algo como riesgo, aunque el motivo sea discutido en tribunales, la etiqueta se convierte en atajo mental para comités de compra, equipos legales y áreas de cumplimiento. Nadie quiere ser la persona que firmó una renovación “contra la recomendación”, aunque el producto sea superior.
Esta es la clase de fricción que destruye adopción sin necesidad de prohibiciones explícitas. No hace falta que cada empresa reciba una orden formal. Basta con que perciba un costo potencial en auditorías, licitaciones futuras o renovación de contratos. En términos conductuales, el miedo a una pérdida incierta suele pesar más que la ganancia técnica tangible. Un mejor desempeño en tareas legales o de ciberseguridad no compensa, para muchos directivos, el estrés anticipado de defender la decisión ante un regulador.
El resultado es un riesgo existencial que el propio reporte enmarca con crudeza: el peligro no es solo perder 200 millones de dólares, sino perder el impulso comercial en Estados Unidos si los clientes sienten que usar Claude los vuelve “complicados” para el gobierno.
Este patrón se repite en otros sectores: cuando el costo de coordinación interna para explicar una elección supera el beneficio incremental del producto, gana el proveedor que reduce el trabajo mental. En compras empresariales, “ser defendible” es una característica del producto, aunque no figure en la ficha técnica.
La carrera con China agrava el dilema porque el adversario juega sin barandales
El ángulo geopolítico que aporta Fortune añade una capa de ironía estratégica. Tanto Anthropic como OpenAI han acusado a laboratorios chinos de destilar modelos mediante métodos no autorizados, y esas versiones, según el reporte, circulan sin restricciones para actores como el Ejército Popular de Liberación, Irán y otros adversarios.
Desde una óptica de incentivos, esto empuja a los gobiernos a maximizar capacidad. Si el adversario tiene acceso a modelos potentes “sin barandales”, el impulso natural de un aparato de defensa es pedir lo mismo o más. El conflicto con Anthropic, según las fuentes citadas, nace exactamente allí: la empresa quiere mantener límites; el cliente militar quiere eliminarlos.
Aquí aparece una tensión que muchas juntas directivas subestiman: la seguridad como atributo comercial funciona cuando el comprador paga por tranquilidad. Pero en seguridad nacional, el comprador paga por ventaja operativa. Esa diferencia cambia la percepción de valor.
Para Anthropic, las restricciones buscan evitar daños graves y proteger a la sociedad, incluyendo impedir vigilancia masiva de ciudadanos. Para el Pentágono, esas restricciones pueden sentirse como pérdida de opcionalidad, y la opcionalidad es un activo estratégico. En términos conductuales, el comprador reacciona con aversión a la restricción: cuando se percibe que alguien externo limita el menú de acciones disponibles, aparece un deseo de recuperar control, incluso si el menú completo no se usa.
De ahí que la respuesta no fuera simplemente cambiar de proveedor. Según las fuentes, se aplicó la etiqueta de “riesgo” y se extendió el veto a todas las agencias federales. Esa intensidad tiene una lectura clara: más que resolver una compra, busca disciplinar el mercado.
La lección para el mercado corporativo de IA es que la confianza se diseña
La historia se suele narrar como una batalla ética entre “seguridad” y “poder”. Yo la leo como una batalla por arquitectura de confianza en un mercado donde el producto es altamente replicable y el costo de cambio, aunque técnico, termina siendo político.
OpenAI aparece en el reporte como el beneficiario natural, “llenando el vacío” del contrato. No hace falta asumir nada más: cuando un proveedor cae en zona de riesgo, el competidor no necesita ser perfecto; necesita ser menos problemático para el comprador. Esa es una forma brutal de competencia.
Para el resto de la industria, este caso deja tres implicaciones operativas:
Primero, los límites de uso no se “declaran”, se negocian como parte del paquete de adopción. Si una empresa quiere mantener barandales, debe convertirlos en una ventaja para el comprador, no en una restricción moral. Eso exige traducción: menos discurso, más diseño contractual, métricas de auditoría y procesos de excepción claros.
Segundo, vender a gobierno demanda redundancia reputacional. No basta con ser bueno. Hay que ser difícil de atacar. La etiqueta de “riesgo” funciona porque es simple, pegajosa y costosa de refutar en una reunión de 30 minutos. Las empresas que compiten en estos mercados deben invertir en narrativas verificables, certificaciones, trazabilidad y gobernanza que reduzcan el espacio para simplificaciones.
Tercero, la demanda en sí misma es un acto de producto. Litigar puede proteger principios y también puede elevar la ansiedad de terceros. La pregunta financiera no es solo si Anthropic gana o pierde en tribunales. Es cuánto tiempo el mercado permanecerá en modo espera y cuántos clientes preferirán no exponerse mientras la disputa siga abierta.
En economía conductual, la adopción ocurre cuando el empuje por salir del estado actual supera el miedo al cambio y la fuerza del hábito. En este caso, el empuje por tener mejor rendimiento compite contra un miedo institucional mucho más potente: quedar alineado con un proveedor etiquetado como riesgo por el propio comprador más influyente del país.
El tablero se moverá hacia quien reduzca el miedo, no hacia quien gane el benchmark
Este conflicto deja una advertencia concreta para líderes de IA empresarial: el rendimiento técnico puede construir deseo, pero rara vez compra tranquilidad. Y en sectores regulados o con compras públicas, la tranquilidad es el componente dominante del valor.
Anthropic puede tener motivos de seguridad legítimos para mantener restricciones, y el gobierno puede tener motivos estratégicos para querer eliminarlas. Lo que decide el impacto económico no es la pureza de la intención, sino cómo esa tensión se convierte en fricción para el cliente corporativo que solo quiere estabilidad operativa.
El precedente que se discute en las fuentes también empuja a una realidad incómoda: si el Estado aprende que puede usar etiquetas de cadena de suministro como herramienta disciplinaria contra proveedores domésticos, toda la categoría se vuelve más frágil. Los compradores privados, al percibir esa fragilidad, tienden a concentrarse en el proveedor que parezca menos expuesto a represalias. Eso puede acelerar consolidación, independientemente de quién tenga el mejor producto.
La estrategia que gana en este mercado no se define por el brillo del modelo, sino por la ingeniería de confianza alrededor del modelo. Y esa ingeniería exige invertir menos en prometer capacidades infinitas y más en apagar miedos verificables: continuidad, gobernanza, trazabilidad y rutas de uso aceptables para los actores con poder de veto. Al final, los equipos C-Level que sobreviven son los que detectan a tiempo cuándo están poniendo todo su capital en hacer que su producto brille, en lugar de invertirlo con disciplina en apagar los miedos y fricciones que impiden que el cliente lo compre.












