Por Angel Di Matteo   𝕏 @shadowargel

Una disputa pública por los límites éticos de la IA escaló hasta la Casa Blanca. Donald Trump ordenó que las agencias federales dejen de usar productos de Anthropic y dio seis meses para migrar, en medio de tensiones con el Pentágono por vigilancia doméstica y armas totalmente autónomas.

***

  • Trump ordenó a las agencias federales cesar el uso de todos los productos de Anthropic y afirmó que la empresa ya no es bienvenida como contratista federal.
  • La medida incluye un periodo de transición de seis meses, con advertencias de “graves consecuencias civiles y penales” si Anthropic no coopera.
  • El conflicto se originó por la negativa de Anthropic a permitir usos ligados a vigilancia masiva doméstica y armas completamente autónomas, postura que su CEO Dario Amodei reiteró públicamente.

 

El presidente Donald Trump ordenó a las agencias federales de Estados Unidos dejar de utilizar todos los productos de Anthropic, tras una disputa pública entre la empresa de inteligencia artificial y el Departamento de Defensa. El anuncio se realizó a través de una publicación en Truth Social, donde el mandatario aseguró que la compañía ya no será bienvenida como contratista federal.

En ese mensaje, Trump fue tajante al describir el futuro vínculo entre el gobierno y la firma: “No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos”. La directriz implica que dependencias que hoy usen herramientas de Anthropic deberán planificar su salida, con el impacto operativo y contractual que ello supone.

Para las agencias que actualmente dependen de esos productos, la orden contempla un periodo de transición de seis meses. El objetivo declarado es permitir un cambio de proveedor sin cortes abruptos, aunque el tono del anuncio dejó claro que la relación quedó políticamente rota. La orden, tal como se comunicó, no describió excepciones ni un esquema detallado de implementación.

En el ecosistema de IA, este tipo de decisiones suele repercutir más allá del perímetro gubernamental. La contratación pública influye en estándares de seguridad, en el diseño de políticas internas y en la competencia entre laboratorios. Por eso, la decisión se interpreta como una señal para otros proveedores: las condiciones de uso y los límites éticos pueden convertirse en un factor de conflicto con necesidades de seguridad nacional.

Qué motivó el choque: vigilancia doméstica y armas completamente autónomas

El origen del conflicto, tal y como se ha reseñado en otras publicadciones, fue la negativa de Anthropic a permitir que sus modelos de IA se utilicen para alimentar vigilancia masiva doméstica o armas completamente autónomas. Esa postura fue considerada “excesivamente restrictiva” por el Secretario de Defensa, Pete Hegseth, en el marco de la disputa pública con la compañía.

Para lectores que no siguen de cerca estos debates, la controversia refleja una tensión recurrente: el gobierno busca capacidades avanzadas para análisis, planificación y operaciones, mientras algunos laboratorios intentan limitar usos que perciben como de alto riesgo. La expresión “vigilancia masiva doméstica” sugiere una aplicación interna a gran escala, y el concepto de “armas completamente autónomas” apunta a sistemas con capacidad de decidir acciones letales sin control humano directo.

En este caso, Anthropic no solo mantuvo su posición, sino que la hizo explícita en el plano público. La empresa rechazó comprometerse en esos dos puntos, lo que terminó por escalar el desacuerdo con el Pentágono. El resultado fue una respuesta política máxima: una orden para cortar el uso de sus productos en todas las agencias federales.

El choque también ilustra cómo las “salvaguardas” en IA, que suelen presentarse como lineamientos técnicos y de gobernanza, pueden chocar con prioridades institucionales. En el sector privado, muchas compañías negocian condiciones de uso con clientes. Con el gobierno, esas condiciones pueden convertirse en un tema de alto voltaje, porque se cruzan con doctrina militar, seguridad pública y atribuciones del Estado.

Transición de seis meses y una advertencia inusual: consecuencias civiles y penales

Trump permitió un periodo de transición de seis meses para los departamentos que usan los productos de Anthropic. El mensaje presidencial instó a la empresa a ser cooperativa durante ese proceso, con una advertencia directa: amenazó con “graves consecuencias civiles y penales” si no lo era.

La formulación es relevante porque sugiere una transición que no será meramente administrativa. En la práctica, una migración de herramientas de IA puede requerir cambios en flujos de trabajo, reentrenamiento de personal y sustitución de integraciones. También puede implicar revisar contratos vigentes, condiciones de servicio y compromisos de soporte, especialmente si hay despliegues en áreas sensibles.

En su publicación, el presidente no mencionó planes para invocar la Ley de Producción de Defensa ni para designar a Anthropic como un riesgo para la cadena de suministro. Esa ausencia marca un límite importante: el gobierno no anunció, al menos en este mensaje, una escalada hacia mecanismos extraordinarios asociados a emergencias industriales o a restricciones por riesgo sistémico.

En cambio, el foco se colocó en la cooperación operativa durante la ventana de seis meses. En términos políticos, la combinación de “transición” con advertencias de consecuencias legales proyecta una presión fuerte para que el cambio ocurra sin fricción. También busca reducir la probabilidad de interrupciones en áreas críticas, aun cuando el gobierno decidió cortar la relación a futuro.

La respuesta del CEO Dario Amodei y el compromiso de una salida ordenada

El CEO de Anthropic, Dario Amodei, reiteró la postura de la compañía en una publicación pública el jueves, negándose a comprometerse en los dos puntos en disputa. Su mensaje buscó sostener los límites planteados por la empresa, sin cerrar la puerta a un proceso de transición que evite impactos en misiones sensibles.

“Nuestra preferencia es seguir sirviendo al Departamento y a nuestros combatientes, con nuestras dos salvaguardias solicitadas en su lugar”, escribió Amodei. Con esa frase, el ejecutivo delineó una intención de continuidad condicionada: Anthropic seguiría trabajando con el Ministerio de Defensa, pero solo si se aceptan restricciones explícitas sobre vigilancia masiva doméstica y armas completamente autónomas.

Amodei también anticipó un escenario de ruptura, en línea con la orden presidencial. “Si el Departamento decide despedirse de Anthropic, trabajaremos para permitir una transición suave a otro proveedor, evitando cualquier interrupción en la planificación militar en curso, operaciones u otras misiones críticas”, agregó. La declaración plantea un enfoque pragmático: sostener la estabilidad operativa aun cuando se pierda el contrato.

En el contexto de la industria, el posicionamiento público del CEO cumple una doble función. Por un lado, muestra coherencia con una postura de seguridad y gobernanza del producto. Por otro, intenta proteger la reputación de la empresa ante clientes y reguladores, al presentar la salida como un proceso ordenado que prioriza la continuidad de tareas críticas del Estado.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín