Por Angel Di Matteo   𝕏 @shadowargel

Un memo interno atribuido al CEO de Anthropic, Dario Amodei, escala la disputa ética por contratos militares de IA: acusa a OpenAI de mentir sobre sus salvaguardas en un acuerdo con el Departamento de Defensa de EE. UU., luego de que Anthropic rechazara condiciones de “cualquier uso legal” sin límites explícitos.

***

  • Dario Amodei habría calificado como “mentiras descaradas” el mensaje de OpenAI sobre su acuerdo con el Departamento de Defensa.
  • Anthropic dice que no logró cerrar un nuevo pacto porque exigía vetar de forma explícita la vigilancia masiva doméstica y el armamento autónomo.
  • Tras el acuerdo de OpenAI con el DoD, las desinstalaciones de ChatGPT habrían subido 295%, según el memo citado.

 

La discusión sobre cómo deben usarse los modelos de inteligencia artificial en entornos militares escaló esta semana con un nuevo episodio entre dos de las compañías más relevantes del sector. Dario Amodei, cofundador y CEO de Anthropic, habría criticado con dureza a Sam Altman, CEO de OpenAI, por la forma en que la empresa comunicó un acuerdo con el Departamento de Defensa de Estados Unidos (DoD).

De acuerdo con un memo interno reportado por The Information y citado por TechCrunch, Amodei describió los tratos de OpenAI con el DoD como “teatro de seguridad”. En ese mismo texto, sostuvo que la narrativa de la empresa dirigida por Altman sobre el acuerdo y sus supuestas barreras de protección serían “mentiras descaradas”. También acusó al directivo de presentarse falsamente como un pacificador y un hábil hacedor de acuerdos.

El trasfondo no es menor. En los últimos meses, el debate sobre “IA para defensa” dejó de ser un tema abstracto y pasó a ser un componente real de la competencia entre laboratorios. Además de la presión regulatoria y reputacional, hay intereses económicos y estratégicos considerables. Los contratos con gobiernos suelen aportar ingresos estables, validación institucional y acceso a casos de uso sensibles.

Para lectores que siguen el impacto de la IA en mercados y tecnología, este tipo de controversias también importa por un motivo adicional: las políticas de uso, las “líneas rojas” y la relación con el Estado influyen en la confianza pública. Esa confianza puede afectar adopción, métricas de producto y, en general, el posicionamiento competitivo. En sectores como cripto, donde la narrativa y la legitimidad pesan, estos choques ofrecen señales sobre cómo se gobernarán tecnologías de alto poder.

Por qué Anthropic no firmó: “cualquier uso legal” y el temor a abusos

Según lo reportado, Anthropic y el DoD no lograron cerrar un acuerdo reciente debido a una diferencia clave en el lenguaje del contrato. La solicitud militar habría buscado acceso “irrestricto” a la tecnología de Anthropic y, en particular, insistía en que la IA estuviera disponible para “cualquier uso legal”. Para Anthropic, esa formulación abría la puerta a riesgos que la compañía no estaba dispuesta a aceptar sin límites expresos.

La empresa habría exigido que el DoD afirmara explícitamente que no usaría su IA para habilitar vigilancia masiva doméstica o armamento autónomo. El punto de Anthropic no se centraba solo en la intención presente, sino en el tipo de garantías escritas que sobreviven cambios políticos, reinterpretaciones legales o expansiones de misión. En otras palabras, la discusión se trasladó al terreno de la gobernanza contractual.

El memo atribuido a Amodei plantea una lectura interna de esa decisión. “El motivo principal [OpenAI] aceptó [el acuerdo del DoD] y nosotros no lo hicimos es que a ellos les importaba apaciguar a los empleados, y a nosotros realmente nos importaba prevenir abusos”, escribió. La frase sugiere que, desde su perspectiva, el problema no era solo la cláusula, sino la prioridad moral detrás de firmar o no.

También hay un dato que añade contexto: Anthropic ya contaba con un contrato de USD $200 millones con el ejército. Ese antecedente indica que la empresa no se presenta como ajena a la relación con defensa. Más bien, la disputa se ubica en los límites del uso y en qué condiciones la tecnología debe estar disponible. Esto matiza la narrativa de “sí o no” a lo militar y la convierte en una discusión sobre “cómo” y “bajo qué reglas”.

El acuerdo con OpenAI y la disputa por las salvaguardas

Mientras Anthropic no cerró el nuevo trato, el DoD sí alcanzó un acuerdo con OpenAI. En el reporte se menciona que el organismo era conocido bajo la administración Trump como el “Departamento de Guerra”. A partir de ese acuerdo, Sam Altman declaró que el nuevo contrato de defensa de su empresa incluiría protecciones alineadas con las mismas líneas rojas que Anthropic había puesto sobre la mesa.

OpenAI reforzó esa postura en una publicación de blog, donde indicó que su contrato permite el uso de sus sistemas de IA para “todos los propósitos legales”. En ese texto, la compañía afirmó: “Fue claro en nuestra interacción que el DoW considera la vigilancia masiva doméstica ilegal y no planeaba usarla para este propósito”. Además, OpenAI sostuvo que dejó explícito en el contrato que ese tipo de vigilancia no quedaría cubierta bajo la noción de “uso legal”.

Amodei, sin embargo, habría rechazado esa caracterización. En su carta al personal, calificó el mensaje de OpenAI como engañoso. El eje del desacuerdo parece estar en si basta con amarrar el uso a lo “legal” o si deben existir prohibiciones específicas, escritas y verificables, sobre áreas de alto riesgo como la vigilancia doméstica a gran escala y el armamento autónomo.

Críticos del enfoque “todo uso legal” han señalado un riesgo estructural: la ley puede cambiar. Lo que hoy es ilegal podría volverse permitido en el futuro, por nuevas normas o reinterpretaciones. En ese escenario, un contrato anclado a “legalidad” sin límites sustantivos podría habilitar usos que hoy resultarían socialmente inaceptables. Esa es, precisamente, la clase de incertidumbre que los laboratorios intentan administrar cuando diseñan políticas de uso y cláusulas de servicio.

Reacción pública y señales de mercado: el 295% en desinstalaciones

Más allá del debate ético, el episodio muestra cómo la percepción pública puede moverse rápido y afectar métricas. En el memo citado, Amodei afirma que “el público parece estar del lado de Anthropic”. Como evidencia, señala que las desinstalaciones de ChatGPT aumentaron un 295% después de que OpenAI concretara su trato con el DoD.

El mismo texto agrega una lectura reputacional: “Creo que este intento de manipulación/engaño no está funcionando muy bien en el público en general o los medios, donde la mayoría de las personas ven el trato de OpenAI con el DoW como turbio o sospechoso, y nos ven a nosotros como los héroes (¡somos #2 en la App Store ahora!)”. Esa frase mezcla crítica, autoconfianza y una referencia directa a posicionamiento en tiendas de aplicaciones.

Amodei también comenta que el efecto sí estaría “funcionando en algunos tontos de Twitter”, aunque minimiza su importancia. Su principal preocupación, según escribió, sería evitar que esa narrativa funcione con los empleados de OpenAI. En otras palabras, el memo no solo habla hacia afuera; también busca influir en la guerra de talento, un factor central en empresas de IA.

Para el ecosistema tecnológico y financiero, este tipo de choques importa porque reconfigura alianzas y percepciones de riesgo. Un laboratorio que se asocia a defensa puede ganar ingresos y acceso, pero también enfrenta críticas y posibles boicots. A la inversa, uno que se posiciona como más restrictivo puede cosechar apoyo, aunque arriesga perder contratos. En IA, donde el crecimiento depende tanto de capital como de legitimidad, esa tensión se volvió parte del producto.

Lo que este caso revela sobre la gobernanza de modelos avanzados

La controversia entre Anthropic y OpenAI subraya un dilema que se repite en tecnologías de doble uso. Un mismo modelo puede servir para mejorar análisis, logística y planificación, o para potenciar sistemas de vigilancia y toma de decisiones letales. Por eso, la discusión sobre “salvaguardas” no es solo comunicacional; se traduce en cláusulas, auditorías, controles de acceso y compromisos verificables.

El desacuerdo también revela que los conceptos de “ética” y “cumplimiento” no siempre se alinean. Cumplir la ley es un piso, pero no necesariamente un techo. En ámbitos donde la ley va detrás de la tecnología, las empresas suelen prometer límites autoimpuestos. La dificultad aparece cuando esos límites chocan con objetivos estatales, necesidades operativas o interpretaciones futuras.

En la práctica, el caso muestra dos aproximaciones. Anthropic habría buscado prohibiciones explícitas sobre vigilancia masiva doméstica y armamento autónomo. OpenAI afirma haber dejado claro que la vigilancia masiva doméstica no está cubierta si es ilegal, y que el contrato permite usos para todos los propósitos legales. La diferencia semántica es enorme cuando el horizonte temporal incluye cambios regulatorios.

Por ahora, lo que se conoce proviene de reportes sobre el memo y de declaraciones públicas. Aun así, el episodio confirma que la carrera por la IA no se decide solo por capacidad técnica. También se juega en el terreno de la confianza, los contratos gubernamentales y la credibilidad de las promesas de seguridad. En un contexto donde los modelos impactan desde finanzas hasta seguridad nacional, esa credibilidad puede convertirse en una ventaja competitiva o en una carga difícil de revertir.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín