Anthropic le dijo no al Pentágono y ahora enfrenta las consecuencias

Anthropic le dijo no al Pentágono y ahora enfrenta las consecuencias

El Departamento de Defensa de EE.UU. sancionó a Anthropic por negarse a retirar los límites éticos de su IA. Lo que parece una disputa contractual es, en el fondo, la primera batalla real por quién gobierna la conducta de los sistemas artificiales en tiempos de guerra.

Simón ArceSimón Arce18 de marzo de 20267 min
Compartir

Anthropic le dijo no al Pentágono y ahora enfrenta las consecuencias

El 4 de marzo de 2026, el Departamento de Guerra de Estados Unidos designó a Anthropic un "riesgo para la cadena de suministro de seguridad nacional". Al día siguiente, Dario Amodei confirmó que la empresa llevaría el caso a los tribunales. Para el 10 de marzo, la demanda estaba radicada en el Tribunal del Distrito Norte de California, Microsoft había presentado un escrito de apoyo y más de mil empleados de OpenAI y Google habían firmado una declaración conjunta de rechazo a las sanciones.

La velocidad del escalamiento revela algo que los comunicados de prensa no dicen: esto no es una disputa sobre cláusulas contractuales. Es la primera prueba de fuerza abierta entre el Estado y el sector privado de la IA sobre quién tiene la autoridad final para decidir qué puede hacer un modelo de inteligencia artificial cuando la orden viene de un uniforme militar.

El contrato que encendió la mecha

En julio de 2025, Anthropic firmó un contrato de 200 millones de dólares con el Departamento de Defensa. El acuerdo permitía usar Claude en operaciones clasificadas, incluyendo seguimiento de inmigrantes para el Servicio de Inmigración y Control de Aduanas y operaciones de captura de objetivos de alto valor. Pero el contrato tenía dos restricciones explícitas: Claude no podía tomar decisiones letales de forma autónoma sin aprobación humana, y no podía ejecutar vigilancia masiva e indiscriminada sobre ciudadanos estadounidenses.

Estas restricciones no eran letra pequeña ni una concesión de última hora. Eran el núcleo de la propuesta de valor que Anthropic ha construido desde su fundación en 2021, cuando Dario Amodei y Daniela Amodei salieron de OpenAI precisamente para apostar por un desarrollo de IA que priorizara la seguridad sobre la velocidad comercial. El Pentágono lo sabía cuando firmó. Lo aceptó.

Lo que cambió fue la administración. En enero de 2026, el secretario de Defensa Pete Hegseth emitió un memorando bajo la estrategia denominada "AI-First Combat Power", que exigía que todos los contratos de IA del Departamento de Defensa incluyeran lenguaje de "cualquier uso legal" en un plazo de 180 días. El memorando colisionó directamente con lo que Anthropic había acordado. El 24 de febrero, Hegseth se reunió personalmente con Amodei y le advirtió que si no retiraba las restricciones antes del viernes siguiente, invocaría el Título I de la Ley de Producción de Defensa para forzar el cumplimiento o exigir el reentrenamiento del modelo.

Amodei respondió con tres palabras que en el mundo corporativo suelen costar caro: "No podemos cumplir".

Lo que la Ley de Producción de Defensa no puede comprar

La amenaza de invocar el Título I de la Ley de Producción de Defensa merece un análisis específico porque revela la fragilidad del argumento gubernamental. Esa ley fue diseñada para garantizar el acceso prioritario del Estado a recursos productivos en tiempos de crisis: acero, semiconductores, equipamiento médico. Su aplicación histórica ha sido sobre bienes físicos con cadenas de producción trazables.

Aplicarla a los principios de diseño de un modelo de lenguaje es un salto legal de proporciones considerables. Como señala el análisis de Lawfare citado en la cobertura del caso, el Título I otorga prioridad de acceso, pero complicaría enormemente exigir jurídicamente la eliminación de salvaguardas incorporadas al modelo o su reentrenamiento. La analogía con una acería no sostiene el peso. Un gobierno puede ordenar a una planta que produzca acero para torpedos en lugar de vigas de construcción. Ordenarle a una empresa que modifique los valores éticos codificados en un modelo de IA es un territorio legal sin precedentes claros.

Esa ambigüedad es, paradójicamente, el instrumento más efectivo del Departamento de Defensa. Como el propio análisis de Lawfare advierte: la amenaza de invocar una ley cuyas implicaciones nadie comprende del todo puede ser suficiente para obtener la capitulación sin necesidad de usarla. La incertidumbre genera presión. Y la presión, en empresas con inversores y contratos en riesgo, suele funcionar mejor que los decretos.

Anthropic eligió el único camino que elimina esa ambigüedad: los tribunales.

El mapa de lealtades y lo que revela sobre el sector

Lo más significativo de este episodio no es la demanda, sino quién se alineó con cada parte y a qué velocidad.

Microsoft presentó un escrito de apoyo el mismo día en que Anthropic radicó la demanda, argumentando que la IA no debería usarse para vigilancia doméstica a gran escala ni para iniciar guerras sin control humano. Jeff Dean y más de cuarenta figuras de la industria firmaron una declaración advirtiendo que sancionar a una empresa de IA estadounidense podría dañar gravemente la competitividad científica e industrial del país. El Information Technology Industry Council, que representa a Nvidia, Amazon, Apple y OpenAI, advirtió que las sanciones podrían debilitar el acceso del propio gobierno a los mejores productos y servicios.

Del otro lado, empresas como xAI de Elon Musk aceptaron los términos del Pentágono para trabajo clasificado, consolidando una fractura visible en el sector entre quienes calculan que la postura ética tiene un costo de oportunidad inaceptable y quienes consideran que ceder es el inicio de una pendiente sin retorno.

Esta fractura importa porque expone la lógica subyacente de cada modelo de negocio. Una empresa que depende críticamente de contratos gubernamentales para sustentar su crecimiento tiene muy poco margen para mantener posiciones que irriten al cliente más grande del mercado. Una empresa que ha construido su diferenciación precisamente sobre las restricciones que el gobierno quiere eliminar tiene el problema inverso: ceder destruiría el activo que la hace valiosa.

Anthropic no está defendiendo principios en abstracto. Está defendiendo la única ventaja competitiva que la separa de sus competidores en un mercado donde los modelos técnicos convergen cada trimestre.

El precedente que nadie quiere nombrar

Si el Departamento de Defensa gana este caso, el efecto sobre la industria no será inmediato ni dramático. Será gradual y sistémico. Cada empresa que negocie un contrato federal de IA sabrá que cualquier restricción de uso puede ser declarada un riesgo para la seguridad nacional en un momento de tensión política. Esa certeza cambia los incentivos de diseño antes de que se firme ningún acuerdo.

El Information Technology Industry Council lo articuló con precisión técnica: las sanciones podrían limitar el acceso del gobierno a los mejores productos disponibles. La paradoja es que el Estado, al presionar para eliminar restricciones, puede terminar con acceso a modelos más obedientes pero menos capaces, desarrollados por empresas que aprendieron a construir sin límites porque los límites resultan políticamente inconvenientes.

El tribunal del Distrito Norte de California tendrá que resolver una pregunta que el Congreso todavía no ha respondido: si una empresa privada puede contractualmente establecer restricciones de uso sobre su tecnología cuando ese uso involucra decisiones letales, o si la doctrina de seguridad nacional puede disolver cualquier acuerdo privado cuando lo considera inconveniente.

Expertos en derecho administrativo citados en la cobertura del caso sugieren que la solución estructural no está en los tribunales sino en el Congreso, que hasta ahora no ha establecido un marco legislativo específico para el uso militar de sistemas de IA. Mientras ese vacío persiste, el Pentágono llena el espacio con memorandos, y las empresas lo responden con demandas.

Lo que Anthropic puso sobre la mesa el 10 de marzo de 2026 no es solo su contrato de 200 millones de dólares. Es la pregunta de si una organización puede sostener un propósito fundacional cuando el cliente más poderoso del mundo decide que ese propósito es un obstáculo. La cultura de toda organización es el resultado natural de perseguir ese propósito con consecuencia, o bien, el síntoma inevitable de todas las veces que el liderazgo prefirió el contrato sobre la convicción.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar