Cuando “uso legal” choca con la seguridad: la batalla por quién gobierna la IA militar

Cuando “uso legal” choca con la seguridad: la batalla por quién gobierna la IA militar

El Pentágono quiere que Claude pueda usarse para “todos los fines legales” en entornos clasificados; Anthropic se niega a retirar barreras contra vigilancia masiva y armas letales autónomas. El choque no es ético en abstracto: es un pulso por control operativo, riesgo contractual y poder de negociación en la cadena de suministro de IA.

Elena CostaElena Costa27 de febrero de 20266 min
Compartir

Cuando “uso legal” choca con la seguridad: la batalla por quién gobierna la IA militar

Es raro ver a un proveedor tecnológico decir “no” cuando hay hasta 200 millones de dólares sobre la mesa y el cliente es el Estado con mayor presupuesto de defensa del mundo. Aun así, Anthropic lo hizo.

El 26 de febrero de 2026, su director ejecutivo, Dario Amodei, publicó que la empresa “no puede, en conciencia”, aceptar la exigencia del Departamento de Defensa de Estados Unidos de retirar salvaguardas de Claude. En el centro del desacuerdo hay dos límites: prohibir el uso del modelo en vigilancia doméstica masiva y en armas letales totalmente autónomas. Según la cobertura de The Guardian, el Pentágono, bajo el secretario de Defensa Pete Hegseth, respondió con un ultimátum: si Anthropic no permite el uso de Claude para “todos los fines legales” en entornos clasificados, el contrato puede cancelarse a las 5:01 PM ET del 27 de febrero y la compañía podría ser etiquetada como “riesgo para la cadena de suministro”. Una calificación habitualmente asociada a amenazas externas, no a una firma estadounidense.

La superficie de la noticia parece un choque de valores. La mecánica real es más incómoda: el gobierno está intentando convertir la gobernanza de un modelo en una cláusula contractual, y la empresa está intentando convertir sus políticas de seguridad en una condición de servicio. En el medio quedan los operadores que necesitan capacidades y los contribuyentes que necesitan garantías.

El contrato como campo de batalla por el control del modelo

Lo importante no es solo que exista un contrato de hasta 200 millones de dólares. Es la naturaleza del activo que se está comprando. Un modelo fundacional no es un software tradicional que se entrega y queda “cerrado” en una versión. Es un sistema que se actualiza, se afina, se integra con flujos de datos y adquiere nuevas capacidades con el tiempo. En la práctica, comprar IA hoy se parece más a contratar una infraestructura crítica que a licenciar un producto.

Por eso el Pentágono empuja por la fórmula de “todos los fines legales”. Desde su lógica, cualquier restricción adicional a la ley equivale a que un proveedor privado imponga límites operativos al Estado. El subsecretario de Investigación e Ingeniería, Emil Michael, en declaraciones citadas por The Guardian, enmarcó el problema como una defensa de libertades civiles frente a decisiones de “BigTech”, y cuestionó que una empresa fije fronteras más allá de las normas aprobadas democráticamente.

Anthropic, en cambio, sostiene que el lenguaje propuesto permitiría que sus salvaguardas se ignoren a voluntad. Un portavoz anónimo describió que la última redacción recibida del DoD mostraba “virtualmente ningún progreso” y que el “compromiso” era principalmente legalista. La compañía no discute el uso militar en general; Amodei llegó a escribir que cree en la “importancia existencial” de usar IA para defender a Estados Unidos. Discute dos aplicaciones donde, según su tesis, el modelo podría “socavar valores democráticos”.

Esta es la señal estratégica para el mercado: la negociación ya no se trata de precio, rendimiento o soporte. Se trata de quién tiene la llave de bypass. Si el cliente puede desactivar controles “cuando lo necesite”, las salvaguardas se convierten en decoración. Si el proveedor puede bloquear categorías de uso incluso en entornos clasificados, el Estado siente que terceriza soberanía operativa.

La amenaza de etiquetar a Anthropic como “riesgo para la cadena de suministro” amplifica el pulso: no castiga solo el contrato puntual, sino la capacidad futura de vender al gobierno y de ser aceptado por contratistas como Boeing o Lockheed Martin, a quienes se les habría pedido evaluar su exposición, según la misma cobertura. Es una herramienta de poder que reordena incentivos de todo el sector.

La seguridad deja de ser un principio y se convierte en arquitectura de producto

Desde afuera, “salvaguardas” suena a una política corporativa. En realidad, es diseño de producto y, por extensión, diseño de poder. Cuando un modelo prohíbe vigilancia masiva o armas autónomas, lo que hace es limitar la escalabilidad de ciertos usos. Y ahí aparece la fricción: la IA reduce costos marginales y hace replicable lo que antes era caro.

En vigilancia, el cambio es brutal. La diferencia entre analizar manualmente información dispersa y automatizar clasificación, priorización y correlación es el paso de una operación cara a una capacidad potencialmente ubicua. La misma lógica aplica a sistemas letales: la automatización reduce fricción, acelera ciclos de decisión y difumina responsabilidad si no existe un diseño explícito de supervisión humana.

El Pentágono insiste en que se rige por leyes como la Cuarta Enmienda, según los argumentos citados, y que no debe aceptar límites privados adicionales. Ese punto es coherente en el plano institucional. El problema es que “legal” y “prudente” no son sinónimos en sistemas que amplifican capacidad. Un uso puede ser legal y, aun así, construir un precedente operativo que después sea difícil de desarmar.

Aquí veo el núcleo de la economía política de la IA: la discusión se desplaza desde “qué puede hacer el modelo” a “qué puede hacer el sistema que lo rodea”. Un modelo en un entorno clasificado, integrado vía plataformas como Amazon y Palantir (mencionadas en la historia), no es un chatbot. Es un componente en una cadena de decisión. En ese contexto, las salvaguardas son menos una postura moral y más una forma de gestionar riesgo sistémico.

Lo que Anthropic está defendiendo, al menos en su framing público, es una idea de IA como inteligencia aumentada, no como sustituto de juicio. Si un sistema se usa para vigilancia masiva o para delegar letalidad, el humano deja de ser supervisor y pasa a ser, en el mejor de los casos, un firmante tardío. Esa es la frontera que la empresa intenta fijar en contrato.

Un precedente que reordena el mercado de proveedores de IA para defensa

El mercado ya había empezado a consolidar una tesis: el Departamento de Defensa no quiere un proveedor, quiere un catálogo. El verano pasado, el Chief Digital & AI Office otorgó contratos de hasta 200 millones a Anthropic, Google, xAI y OpenAI para personalizar IA generativa para usos militares, según The Guardian. La idea obvia es evitar dependencia de un solo actor y acelerar capacidades.

Pero el detalle que cambia la negociación es que Anthropic, de acuerdo con la misma fuente, es el único modelo usado en entornos clasificados hasta la fecha, lo que le daba ventaja en experiencia y, por lo tanto, en poder de negociación. Ese poder es precisamente lo que el Pentágono intenta neutralizar estandarizando la cláusula de “todos los fines legales” como baseline contractual.

Si esa cláusula se vuelve norma, el mensaje para el resto de proveedores es claro: quien quiera entrar a lo clasificado debe aceptar que sus políticas internas no funcionen como límites. No hace falta que el gobierno prometa que los usará para vigilancia masiva o armas autónomas. Solo necesita asegurarse el derecho de hacerlo si su interpretación legal lo permite.

En paralelo, se abre un camino competitivo. La nota menciona que xAI aceptó el estándar de “all lawful purposes” para trabajo clasificado. Eso genera un riesgo financiero inmediato para Anthropic: perder el contrato no solo significa perder ingresos potenciales, sino ceder terreno en un segmento donde la credibilidad se construye con despliegues reales, no con promesas.

También hay un costo para el Pentágono si ejecuta la amenaza. El portavoz Sean Parnell advirtió en X que dejar de permitir esos usos pondría en riesgo operaciones y a los “warfighters”, y que no permitirán que “ninguna empresa dicte los términos”. Esa postura endurece la negociación pero también eleva el costo reputacional de prescindir de un proveedor ya integrado. En compras de defensa, cambiar de proveedor rara vez es una transición limpia, aunque Amodei haya señalado disposición para una “transición fluida” hacia otro.

El ángulo menos comentado es el de gobernanza industrial: si Estados Unidos etiqueta a una empresa local como “riesgo de cadena de suministro” en un conflicto contractual, el sector entero internaliza que la no conformidad se castiga como amenaza. Eso acelera la “disciplina” del mercado, pero puede desincentivar a quienes construyen barreras de seguridad robustas por diseño.

El factor Defensa de la Producción y la expansión del poder estatal sobre modelos

La cobertura también menciona que el Pentágono consideró invocar la Defense Production Act (DPA) para forzar acceso sin restricciones, pese a dudas legales señaladas por expertos en políticas de IA. Esa posibilidad importa incluso si nunca se ejecuta. Es una señal de que el Estado está dispuesto a tratar modelos avanzados como recursos estratégicos y a empujar instrumentos de tiempos de guerra hacia la economía digital.

Desde la perspectiva empresarial, el DPA cambia el cálculo de riesgo. Si el gobierno puede declarar un sistema “esencial” y forzar condiciones, entonces la estrategia de “vender al sector público para estabilizar ingresos” deja de ser simple. El contrato se parece más a un acuerdo con capacidad de coerción. Y eso obliga a los consejos de administración a preguntarse qué están comprando realmente: ventas o exposición.

Hay una contradicción que Amodei resaltó y que es operativamente relevante: al mismo tiempo que se amenaza con declarar a Anthropic un riesgo de cadena de suministro, se evalúa forzar acceso porque el modelo sería esencial para la seguridad nacional. Esa tensión no es solo retórica; revela un Estado que quiere dependencia sin dependencia, es decir, acceso y control sin aceptar la asimetría de que el proveedor también tiene poder.

La salida probable no es una victoria absoluta de una parte. Es un rediseño contractual que cree una zona gris: salvaguardas en papel, excepciones bajo ciertos procesos, auditorías internas, y un lenguaje que preserve margen de maniobra para el DoD. El problema de la zona gris es que, en sistemas que escalan, lo que no está técnicamente garantizado se erosiona con el tiempo.

Lo que sí queda claro es el patrón: la IA en defensa entra en una fase donde el activo crítico ya no es el modelo, sino el gobierno de su uso. Quien controle esa palanca controla el valor.

La dirección inevitable es gobernanza técnica, no solo cláusulas

Como futurista enfocada en impacto, veo esta disputa como un síntoma de madurez. La IA dejó de ser una compra “innovadora” y se convirtió en infraestructura. En infraestructura, la discusión real es quién define límites, quién audita excepciones y quién carga con el costo cuando un uso “legal” produce daño operativo, político o social.

El C-Level debería leer este caso como una lección sobre compras de IA en sectores regulados: los principios de seguridad que no están integrados en arquitectura y procesos terminan negociándose como anexos contractuales, y los anexos se rompen bajo presión. Si la seguridad depende de buena voluntad, no escala.

También es un recordatorio de cómo la convergencia digital erosiona monopolios de decisión. Ni el gobierno puede asumir control total sobre modelos que se construyen en el sector privado, ni las empresas pueden pretender que políticas internas sustituyan marcos democráticos. La única salida estable es diseñar sistemas donde la inteligencia aumentada preserve supervisión humana verificable y trazabilidad.

Este mercado está transitando desde la digitalización hacia la disrupción de la gobernanza: el valor se desplazará hacia quienes conviertan salvaguardas en ingeniería auditable y reduzcan el costo de cumplir sin degradar capacidades. La tecnología debe empoderar el criterio humano y democratizar garantías, no solo acelerar operaciones.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar