Microsoft salió públicamente en apoyo de Anthropic y pidió a un tribunal de EE. UU. que bloquee de forma temporal la prohibición impuesta por el Pentágono, en un caso que mezcla contratos millonarios, seguridad nacional y límites sobre el uso militar de la inteligencia artificial.
***
- Microsoft pidió una orden de restricción temporal contra la designación del Pentágono que califica a Anthropic como riesgo para la cadena de suministro.
- Anthropic demandó a la administración Trump tras la prohibición inmediata de su tecnología en contratos del Departamento de Defensa.
- El conflicto surgió luego de que fracasaran las negociaciones sobre cómo podrían usarse los modelos Claude por parte del ejército estadounidense.
🚨 Microsoft apoya a Anthropic en su batalla legal contra el Pentágono.
La empresa pide a un tribunal bloquear la prohibición que califica a Anthropic como riesgo para la cadena de suministro.
Esta designación frena contratos valorados en cientos de millones de dólares.
Ambas… pic.twitter.com/OFo9RBy5HI
— Diario฿itcoin (@DiarioBitcoin) March 11, 2026
Microsoft respaldó el martes a Anthropic en su disputa judicial contra el Departamento de Defensa de Estados Unidos, al sostener que un juez debería emitir una orden de restricción temporal que bloquee la designación de la empresa de inteligencia artificial como riesgo para la cadena de suministro en todos los contratos existentes.
La postura de Microsoft introduce un elemento de gran peso en el litigio, ya que la compañía no solo mantiene vínculos comerciales con el sector público estadounidense, sino que además anunció en noviembre planes para invertir hasta USD $5.000 millones en Anthropic. Al mismo tiempo, Microsoft ha sido también uno de los mayores inversionistas de OpenAI desde 2019.
Según una presentación realizada ante el Tribunal de Distrito en San Francisco, la empresa argumentó que una orden temporal permitiría una transición más ordenada y evitaría interrumpir el uso continuo de IA avanzada por parte del ejército estadounidense.
La tecnológica también advirtió que, sin esa medida judicial, tanto Microsoft como otras empresas del sector tendrían que actuar de inmediato para modificar configuraciones de productos y contratos ya existentes que hoy son utilizados por el Departamento de Defensa. En su escrito, señaló que ese ajuste apresurado podría obstaculizar a los combatientes estadounidenses en un momento crítico.
Qué está en juego en el caso de Anthropic
El trasfondo del conflicto es la decisión del Departamento de Defensa, conocida también por sus siglas en inglés DOD, de prohibir oficialmente la tecnología de Anthropic y clasificar a la empresa como un riesgo para la cadena de suministro. De acuerdo con la información publicada por CNBC, esa etiqueta ha sido reservada históricamente para adversarios extranjeros.
La designación entró en vigor de inmediato y obliga a vendedores y contratistas de defensa a certificar que no utilizan los modelos de Anthropic en trabajos vinculados con el Pentágono. En la práctica, esto compromete contratos en curso y amenaza nuevas adjudicaciones, en un momento en que la IA se ha convertido en un componente cada vez más relevante para operaciones militares, análisis y automatización.
Anthropic respondió con una demanda presentada el lunes contra la administración Trump. En ella calificó las acciones del gobierno como sin precedentes e ilegales, y afirmó que están dañando irremediablemente a la compañía. Además, sostuvo que la medida pone en riesgo contratos de corto plazo valorados en cientos de millones de dólares.
La intervención de Microsoft se produjo a través de una moción vinculada a un posible escrito amicus. Ese tipo de documento lo presentan partes que no figuran como demandantes o demandadas en el caso, pero que poseen experiencia relevante o pueden verse afectadas por el desenlace del litigio.
El caso también revela hasta qué punto el negocio de la IA se entrelaza con la defensa y la seguridad nacional. Para compañías tecnológicas, perder acceso a contratos del Pentágono puede significar daños financieros relevantes y, a la vez, redefinir la percepción pública y regulatoria sobre sus modelos.
La ruptura entre Anthropic y el Pentágono
Antes de la escalada judicial, Anthropic y el Departamento de Defensa venían renegociando su contrato durante las últimas semanas. Sin embargo, las conversaciones colapsaron después de que ambas partes no lograran acordar las condiciones bajo las cuales podrían usarse los modelos Claude.
La startup buscaba garantías específicas para impedir que sus sistemas fueran empleados en armas completamente autónomas o en vigilancia masiva doméstica. Ese punto no es menor en la industria de IA, donde varios desarrolladores han intentado fijar límites éticos y comerciales respecto a la forma en que sus tecnologías pueden implementarse en contextos sensibles.
Por su parte, el Departamento de Defensa quería que la compañía concediera al ejército acceso sin restricciones para todos los propósitos legales. Ninguna de las dos partes cedió, lo que llevó al quiebre de las negociaciones y, poco después, a la imposición formal de la prohibición.
La disputa no solo enfrenta dos visiones sobre seguridad y uso de tecnología avanzada. También expone una tensión más profunda entre el deseo del Estado de contar con herramientas de última generación y la intención de las empresas privadas de conservar control contractual sobre aplicaciones consideradas de alto riesgo.
En este contexto, la demanda de Anthropic y el apoyo de Microsoft pueden interpretarse como un intento de ganar tiempo. Una orden temporal no resolvería el conflicto de fondo, pero sí evitaría cambios abruptos en contratos ya firmados mientras el tribunal evalúa la legalidad de la medida adoptada por el Pentágono.
La posición de Microsoft y el impacto sobre la IA
En su presentación judicial, Microsoft sostuvo que una orden de restricción temporal permitiría a Anthropic y al Departamento de Defensa buscar una resolución negociada que sirva mejor a todos los involucrados y evite impactos comerciales de gran alcance. La empresa planteó el problema como uno de continuidad operativa, pero también de coordinación entre proveedores tecnológicos y el sector militar.
Un portavoz de Microsoft dijo en un comunicado que la compañía cree que todos los involucrados comparten objetivos comunes y que hace falta tiempo y un proceso para encontrar un terreno común. Añadió que el Departamento de Guerra necesita acceso confiable a la mejor tecnología del país.
Ese mismo portavoz también indicó que todos quieren asegurar que la IA no se utilice para vigilancia masiva doméstica ni para iniciar una guerra sin control humano. La declaración resume el delicado equilibrio que hoy buscan mantener muchas tecnológicas: participar en contratos de alto valor con gobiernos sin quedar asociadas a usos extremos o políticamente tóxicos de sus modelos.
Anthropic fue fundada en 2021 por un grupo de ex ejecutivos de OpenAI y se ha convertido en una de las startups tecnológicas de mayor crecimiento en Estados Unidos. Según la información difundida por CNBC, la empresa alcanzó una valoración de USD $380.000 millones, una cifra que subraya su rápido ascenso dentro del mercado de IA generativa.
El caso puede sentar un precedente importante. Si el gobierno de Estados Unidos consolida una designación de este tipo contra una empresa local de IA, otras compañías podrían reevaluar sus contratos con agencias públicas, sus cláusulas de uso y su exposición regulatoria.
También podría abrir un debate más amplio sobre quién define los límites de la inteligencia artificial en defensa. Por un lado, el Estado busca libertad operativa. Por el otro, los desarrolladores intentan fijar barreras sobre la autonomía letal y la vigilancia interna. La respuesta judicial a esta disputa será seguida de cerca por la industria tecnológica y por quienes estudian el futuro de la IA en ámbitos críticos.
Imagen de Unsplash
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
Wall Street ve un piso en software tras el golpe por temor a la IA
AltCoins
Bitcoin cede bajo USD $70.000 por tensión con Irán y previo a los datos de inflación en EEUU
Empresas
Anthropic crea un instituto para estudiar la IA mientras enfrenta una lista negra del Pentágono
IA