Por Angel Di Matteo   𝕏 @shadowargel

Más de 300 empleados de Google y más de 60 de OpenAI firmaron una carta abierta para respaldar a Anthropic, que enfrenta un ultimátum del Pentágono por “acceso irrestricto” a su tecnología. En el centro del choque están dos líneas rojas: no usar IA para vigilancia masiva doméstica ni para armamento totalmente autónomo.

***

  • Anthropic llegó a un punto muerto con el Departamento de Guerra de EE. UU. por una solicitud de acceso irrestricto a su IA.
  • Más de 360 empleados de Google y OpenAI pidieron a sus líderes unirse para sostener límites contra vigilancia masiva y armas autónomas.
  • El Pentágono habría amenazado con declararla “riesgo de cadena de suministro” o invocar la Ley de Producción de Defensa (DPA), según declaraciones atribuidas al secretario Pete Hegseth.

 

Anthropic enfrenta conflictos delicados con el Departamento de Guerra de Estados Unidos por una solicitud del ejército: acceso irrestricto a la tecnología de la compañía. El conflicto escaló mientras se acercaba el plazo del viernes por la tarde fijado por el Pentágono para que la empresa cumpla con esa exigencia.

En el centro del desacuerdo están límites explícitos que Anthropic dice mantener desde su relación con el gobierno. La empresa se opone a que su IA se use en vigilancia masiva doméstica y en armamento completamente autónomo, dos aplicaciones que considera líneas rojas.

El tema toca un debate más amplio sobre cómo se integra la IA de propósito general a entornos militares. Estas herramientas ya se usan en empresas, universidades y mercados financieros, pero su adopción en defensa abre preguntas sobre control, responsabilidad y escalamiento de capacidades. Esto es lo que abogan empleados de Google y OpenAI, los cuales se han manifestado a favor de la postura de Anthropic en un documento público, advirtiendo sobre los riesgos que implica la solicitud y las presiones del gobierno estadounidense.

La carta abierta: empleados de Google y OpenAI piden un frente común

Según informó TechCrunch, más de 300 empleados de Google y más de 60 empleados de OpenAI firmaron una carta abierta. El objetivo fue instar a los líderes de sus empresas a apoyar a Anthropic y rechazar lo que describen como un uso unilateral de estas tecnologías.

La carta plantea que el Pentágono estaría intentando fragmentar la respuesta del sector. “Están tratando de dividir a cada empresa con el miedo de que la otra ceda”, dice el texto. También agrega: “Esa estrategia solo funciona si ninguno de nosotros sabe donde están los demás”.

Los firmantes piden específicamente que Google y OpenAI mantengan las líneas rojas de Anthropic. En concreto, solicitan continuar rechazando demandas relacionadas con vigilancia masiva doméstica y armamento totalmente automatizado.

El documento apela a la coordinación entre compañías que compiten entre sí. “Esperamos que nuestros líderes dejen de lado sus diferencias y se unan para continuar rechazando las demandas actuales del Departamento de Guerra”, señala la carta dirigida a los ejecutivos.

Qué han dicho (y qué no) los líderes de OpenAI y Google

Hasta el momento, los líderes de las compañías no han respondido formalmente a la carta abierta. El reporte indica que se solicitó comentario a Google y OpenAI, sin que hubiera una respuesta oficial inmediata vinculada al documento.

Aun así, algunas declaraciones informales sugieren simpatía con la postura de Anthropic. En una entrevista con CNBC el viernes por la mañana, el CEO de OpenAI, Sam Altman, dijo que “personalmente no cree que el Pentágono debería estar amenazando con DPA a estas compañías”.

De acuerdo con un reportero de CNN, un portavoz de OpenAI confirmó que la compañía comparte las líneas rojas de Anthropic. En esa confirmación se incluyó oposición a armas autónomas y a vigilancia masiva.

En el caso de Google DeepMind, el conflicto no ha sido abordado formalmente. Sin embargo, el científico Jefe Jeff Dean, presuntamente a título individual, expresó oposición a la vigilancia masiva por parte del gobierno, en línea con el foco del reclamo.

Lo que ya usa el ejército y el trasfondo de la IA para trabajo clasificado

El debate ocurre mientras el ejército ya tiene acceso a herramientas de IA de grandes proveedores para tareas no clasificadas. Un reporte citado indica que actualmente puede utilizar Grok de X, Gemini de Google y ChatGPT de OpenAI en ese tipo de trabajos.

Ese mismo informe señala que el ejército ha estado negociando con Google y OpenAI para llevar su tecnología a usos en trabajos clasificados. Este punto eleva la sensibilidad del asunto, porque los requerimientos de seguridad, control de acceso y auditoría suelen ser más estrictos, y los riesgos también.

Para lectores no familiarizados con estas categorías, “no clasificado” no significa irrelevante. Puede abarcar logística, redacción, análisis general o soporte administrativo. En contraste, “clasificado” tiende a incluir información operacional, inteligencia y planes, donde el impacto de errores o filtraciones crece.

En ese contexto, el caso de Anthropic funciona como prueba de límites para toda la industria. Si se normaliza un “acceso irrestricto” a modelos, datos, capacidades o soporte, otras compañías podrían enfrentar exigencias parecidas, aun si su política interna marca restricciones.

Las amenazas: “riesgo de cadena de suministro” y la Ley de Producción de Defensa

El Secretario de Defensa, Pete Hegseth, le habría dicho al CEO de Anthropic, Dario Amodei, que si la compañía no cede, el Pentágono podría declararla un “riesgo de cadena de suministro”. Además, podría invocar la Ley de Producción de Defensa (DPA) para obligar a la empresa a cumplir con las demandas militares.

Estas herramientas tienen implicaciones fuertes para empresas tecnológicas. Ser etiquetado como riesgo de cadena de suministro puede afectar contratos, reputación y acceso a clientes gubernamentales. La DPA, por su parte, suele asociarse con la capacidad del gobierno de priorizar o exigir producción en escenarios de seguridad nacional.

El alcance exacto de lo solicitado por el ejército se describe como “acceso irrestricto” a la tecnología de Anthropic. La controversia no se centra en un acuerdo general de colaboración, sino en si la compañía debe levantar restricciones de uso relacionadas con vigilancia doméstica y armamento autónomo.

Desde la óptica de gobernanza de IA, el choque ilustra una tensión recurrente: el Estado busca capacidades en nombre de seguridad, mientras empresas y empleados intentan fijar límites de uso. En mercados de IA, esa disputa también influye en cómo se perciben riesgos regulatorios, éticos y comerciales.

La respuesta de Dario Amodei y la contradicción que denuncia Anthropic

En una declaración el jueves, Dario Amodei sostuvo la posición de Anthropic. “Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo para la seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional”, dijo.

Amodei añadió que, independientemente de esas amenazas, la postura no cambia. “Independientemente, estas amenazas no cambian nuestra posición: no podemos ceder a su solicitud de buena fe”, afirmó, defendiendo el límite sobre vigilancia masiva doméstica y armamento completamente autónomo.

El señalamiento de contradicción apunta a un dilema de narrativa: por un lado, el gobierno sugiere que la empresa puede ser un riesgo; por el otro, su tecnología sería indispensable. Para la industria, este tipo de mensajes mixtos puede aumentar incertidumbre y endurecer posturas internas.

Anthropic ya tiene una asociación existente con el Pentágono, pero ha mantenido firmemente los límites sobre usos finales. El caso muestra que las alianzas previas no eliminan la fricción cuando aparecen nuevos requerimientos o presiones institucionales.

Por qué esta disputa importa para la industria de IA y los mercados

Más allá del episodio puntual, la carta de empleados sugiere una dinámica nueva: trabajadores de compañías rivales coordinándose para influir en decisiones de alto nivel. En un sector donde talento y cultura pesan tanto como la tecnología, este tipo de presión interna puede afectar estrategias comerciales.

También hay un efecto sobre confianza y adopción. Si los usuarios perciben que ciertos modelos pueden ser forzados a usos sensibles, pueden surgir preguntas sobre cumplimiento, privacidad y límites contractuales. Para empresas que integran IA en productos, el riesgo reputacional se vuelve un factor.

En el plano geopolítico, el caso refleja la aceleración de la carrera por IA avanzada. Los gobiernos buscan capacidades, mientras las empresas intentan conservar margen de control. La forma en que se resuelva este pulso puede sentar precedentes sobre qué significa “cooperar” cuando se habla de modelos de frontera.

Por ahora, el punto clave permanece: Anthropic afirma que no cederá en sus líneas rojas, mientras crece el respaldo de empleados de Google y OpenAI para sostener esos límites. La respuesta formal de las compañías y el desenlace del ultimátum del viernes serán determinantes para medir el peso real de esta presión colectiva.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín