La guerra por la IA militar ya es una guerra de gobernanza
La semana del 27 de febrero de 2026 dejó una escena que, vista desde la sala de juntas, resulta más inquietante que espectacular. Por un lado, Sam Altman anunció que OpenAI cerró un acuerdo para desplegar modelos en redes clasificadas del Pentágono. Por otro, la Casa Blanca ordenó a las agencias federales retirar tecnología de Anthropic en seis meses, y el Secretario de Guerra Pete Hegseth calificó a la empresa como “riesgo de cadena de suministro para la Seguridad Nacional”, prohibiendo que contratistas y proveedores militares mantengan actividad comercial con Anthropic. Anthropic, según lo reportado, anunció su intención de demandar.
En paralelo, una parte del talento técnico mostró disenso público. Más de 300 empleados de Google y más de 60 de OpenAI firmaron una carta pidiendo a sus líderes respaldar los límites que Anthropic defendía, particularmente la prohibición de vigilancia masiva doméstica y la exigencia de control humano sobre sistemas de armas autónomos.
Si uno mira solo el titular, se arma el relato habitual: una empresa “se planta”, otra “negocia”, un gobierno “impone”. En la práctica directiva, lo relevante es otra cosa: el Estado no solo compra IA, intenta comprar obediencia institucional. Y la industria no solo vende modelos, vende su capacidad de sostener una posición cuando los incentivos se vuelven punitivos.
Cuando el cliente también es regulador y castiga como competidor
La decisión política de tratar a Anthropic como riesgo de cadena de suministro tiene un efecto que trasciende a esa empresa. En el mundo de compras complejas, el peor mensaje para el mercado no es un “no te compro”, sino un “si trabajas con ellos, no trabajas conmigo”. Según el briefing, Hegseth afirmó que ningún contratista, proveedor o socio que haga negocios con el ejército estadounidense puede realizar actividad comercial con Anthropic. Eso no es solo una preferencia de abastecimiento; es una señal de alineamiento obligatorio.
La consecuencia inmediata es obvia: se reordenan incentivos en la cadena de valor de defensa, desde integradores hasta cloud providers y consultoras de sistemas. El costo no lo paga únicamente el proveedor bloqueado; lo paga cualquier actor que quede atrapado en la ambigüedad. En ese entorno, muchas compañías dejan de tomar decisiones por análisis de riesgo operativo y pasan a tomarlas por control de daño político.
Aquí aparece una tensión que los C-Level suelen subestimar. El “cliente soberano” tiene poder de compra, poder normativo y capacidad de reputación pública. En sectores como defensa, ese triángulo de poder altera la gobernanza interna de las tecnológicas: la función de ventas puede arrastrar a legal, compliance y seguridad hacia un marco donde lo importante deja de ser el diseño de producto y pasa a ser la interpretabilidad política del contrato.
El mensaje de Trump, citado en la cobertura, explicitó esa dimensión: criticó a la dirección de Anthropic y amenazó con “todo el poder de la Presidencia” para forzar cooperación durante la transición. Independiente de la legalidad última que se discuta en tribunales, la mecánica directiva ya operó. El Estado mostró que puede convertir una diferencia de criterios en un riesgo existencial.
Este episodio también revaloriza una pregunta incómoda para los boards de empresas de IA: la dependencia de un único comprador dominante convierte cualquier divergencia en un evento de supervivencia. La diversificación no es solo financiera; es política.
Dos líneas rojas y un problema de lenguaje que nadie quiso cerrar
El corazón del conflicto, tal como se describe, son dos restricciones que Anthropic sostuvo: no permitir uso para vigilancia masiva doméstica de ciudadanos estadounidenses y exigir control humano sobre armas autónomas. El Pentágono habría pedido “acceso sin restricciones” para “todos los propósitos legales” y, según Axios citado en el briefing, se llegó a mencionar la amenaza de invocar la Defense Production Act.
En la superficie, ambos lados dicen defender principios parecidos. Altman escribió que OpenAI también sostiene como tenets la prohibición de vigilancia masiva doméstica y la responsabilidad humana en el uso de la fuerza, y que el Departamento de Guerra “se alinea” con esos principios, los “consagra en ley y política” y fueron integrados al acuerdo. Esta frase es quirúrgica desde el punto de vista contractual: desplaza el centro de gravedad desde la ética corporativa hacia el marco legal existente.
Ese desplazamiento define ganadores. Si la discusión se formula como “mi política interna versus tu necesidad operativa”, la empresa queda expuesta como actor político. Si se formula como “cumplimos la ley y tus políticas ya vigentes”, la empresa se presenta como proveedor responsable y ejecutor de un estándar estatal. El mismo límite puede verse como rebeldía o como cumplimiento, dependiendo de cómo se redacta y quién controla el texto.
Donde veo la conversación faltante no es entre empresas y gobierno, sino dentro de cada empresa. Las organizaciones de IA llevan meses, quizá años, intentando mantener dos discursos simultáneos: el de seguridad hacia el público y el de disponibilidad hacia grandes compradores. Cuando llega el momento de traducir “seguridad” a cláusulas verificables, aparecen fricciones que no son técnicas. Son de poder.
Anthropic afirmó, según el briefing, que esas dos restricciones no afectaron “una sola misión” hasta la fecha. Esa afirmación busca desactivar el argumento operacional. El problema es que la disputa ya no era operacional: era simbólica. Y cuando un conflicto se vuelve simbólico, el margen para compromisos técnicos se achica.
El acuerdo de OpenAI como producto político y como ventaja competitiva
El anuncio de Altman de un acuerdo para desplegar modelos en redes clasificadas reconfigura el tablero. No por el detalle técnico, que en este caso no está descrito en profundidad, sino por la señal competitiva. En mercados donde el comprador puede cerrar puertas a otros, el acceso a redes clasificadas es una ventaja que se parece menos a “contrato” y más a “licencia”.
Altman, según lo reportado, añadió dos elementos que merecen atención ejecutiva. Primero, que los límites de uso reflejan legislación y política existentes, no nuevas reglas creadas por la empresa. Segundo, que OpenAI operaría en redes cloud y no en escenarios de edge como armas autónomas. Ese segundo punto, leído sin romanticismo, delimita responsabilidades: reduce superficie de riesgo técnico y moral, y baja la probabilidad de que el producto termine en un contexto donde el control humano sea una ficción.
Al mismo tiempo, no conviene narrar esto como virtud o defecto personal. La pregunta estratégica es qué tipo de empresa se construye cuando el acceso a contratos depende de demostrar alineamiento con una administración. En un ciclo político distinto, las mismas cláusulas pueden reinterpretarse como insuficientes o excesivas. La compañía que ancla su narrativa solo en “estar del lado correcto del poder” se vuelve frágil ante el siguiente cambio.
En términos de industria, el precedente inquietante es la asimetría creada por la lista negra. Si un actor es castigado, el resto recibe una invitación tácita a capturar cuota de mercado. Esa invitación no necesita ser explícita. Funciona porque el miedo es un incentivo más rápido que la planificación.
Talento en rebeldía y el costo de gobernar por memorandos
El detalle más relevante para cualquier CEO no está en los comunicados oficiales, sino en la carta firmada por empleados. Más de 300 empleados de Google y más de 60 de OpenAI pidieron a sus líderes apoyar a Anthropic y resistir las exigencias del Pentágono. La carta, según el briefing, señalaba que el gobierno intenta “dividir” a cada empresa con el temor de que la otra ceda.
Cuando empleados de compañías rivales coordinan un gesto de este tipo, el mensaje es claro: el talento percibe que la gobernanza corporativa está respondiendo más a presión externa que a compromisos internos. Y el talento, en IA, no es una función de soporte. Es parte del motor de producción.
Esto expone una falla clásica de madurez organizacional. Las empresas creen que pueden gobernar dilemas de alto riesgo con documentos internos, comités y frases pulidas. Pero cuando el dilema entra a la geopolítica, el gobierno deja de ser un stakeholder y se convierte en un actor que define el marco de posibilidad. La cultura se prueba ahí, no en los valores publicados.
Jeff Dean, según la cobertura, escribió que la vigilancia masiva viola la Cuarta Enmienda y tiene un efecto inhibidor sobre la libertad de expresión, además de ser propensa al abuso político o discriminatorio. Ese comentario, emitido como individuo, muestra otra tensión: líderes técnicos quedan empujados a hablar en canales personales porque la empresa, por prudencia, se calla. La prudencia puede ser estratégica, pero también puede ser una forma de esconder la falta de alineamiento interno.
El costo operativo aparece después. Retención, velocidad de ejecución y cooperación transversal se degradan cuando una parte de la organización siente que “la empresa” es solo el frente comercial de decisiones tomadas en privado. No hace falta una huelga. Basta con la erosión de confianza.
Lo que queda para el C-Level es un diseño de poder, no un debate moral
Este episodio deja una lección áspera: en IA, las cláusulas de uso son instrumentos de poder. Si el Estado puede exigir “todos los propósitos legales” y castigar al proveedor que intenta mantener excepciones, entonces el mercado se mueve desde la innovación hacia la obediencia contractual.
Para los líderes empresariales fuera del sector defensa, esto no es una anécdota ajena. Es un anticipo de cómo se gobernarán tecnologías de propósito general en sectores regulados. Salud, finanzas, educación, infraestructuras críticas. Cualquier industria donde el regulador también compra o habilita el mercado corre el riesgo de replicar este patrón.
La respuesta directiva que observo como necesaria no es indignación ni heroísmo. Es diseño. Diseñar un portafolio de clientes que reduzca dependencia política. Diseñar acuerdos que conviertan valores en controles auditables, no en declaraciones. Diseñar una relación con el talento donde las líneas rojas no aparezcan como moral de marketing, sino como compromisos operables.
También exige responsabilidad ejecutiva en su forma más incómoda. Cuando el entorno se vuelve coercitivo, la tentación es culpar al gobierno, a la prensa, a la “polarización”. Eso es administración por victimismo. Un CEO serio asume que su organización será medida por su capacidad de sostener coherencia bajo presión, incluso cuando esa coherencia cueste acceso, prestigio o ingresos.
La cultura de toda organización no es más que el resultado natural de perseguir un propósito auténtico, o bien, el síntoma inevitable de todas las conversaciones difíciles que el ego del líder no le permite tener.












