Más de 30 empleados de OpenAI y Google DeepMind salieron en defensa de Anthropic luego de que el Departamento de Defensa de EE. UU. la etiquetara como riesgo para la cadena de suministro, un choque que intensifica el debate sobre los límites del uso militar de la inteligencia artificial.
***
- Más de 30 empleados de OpenAI y Google DeepMind presentaron una declaración en apoyo a la demanda de Anthropic contra el DOD.
- El Pentágono calificó a Anthropic como riesgo para la cadena de suministro tras negarse a permitir vigilancia masiva y armas autónomas.
- El caso expone tensiones crecientes en la industria de IA sobre contratos públicos, salvaguardias y uso militar de modelos avanzados.
Más de 30 empleados de OpenAI y Google DeepMind presentaron el lunes una declaración judicial en apoyo a la demanda de Anthropic contra el Departamento de Defensa de Estados Unidos (DOD). El documento llegó después de que la agencia federal calificara a la compañía de inteligencia artificial como un riesgo para la cadena de suministro.
El escrito sostiene que la decisión del gobierno fue un uso inadecuado y arbitrario de su poder. Entre los firmantes aparece Jeff Dean, científico jefe de Google DeepMind, un nombre de alto perfil dentro del sector tecnológico y de investigación en IA.
La disputa se ha convertido en un caso relevante para toda la industria, porque enfrenta dos temas sensibles. Por un lado, el alcance que debería tener el Estado al contratar sistemas de IA. Por otro, la capacidad de las empresas privadas para imponer límites técnicos y contractuales al uso de sus modelos, reseña TechCrunch.
Para lectores menos familiarizados con el tema, la etiqueta de riesgo para la cadena de suministro suele asociarse con amenazas externas o actores considerados problemáticos para la seguridad nacional. Por eso, su aplicación contra una firma estadounidense de IA generó una reacción inmediata dentro del propio ecosistema tecnológico.
El origen del conflicto entre Anthropic y el Pentágono
A finales de la semana pasada, el Pentágono etiquetó a Anthropic como un riesgo para la cadena de suministro. La decisión ocurrió después de que la empresa se negara a permitir que el Departamento de Defensa usara su tecnología para vigilancia masiva de estadounidenses o para disparar armas de forma autónoma.
Según los documentos citados, el DOD argumentó que debía poder utilizar la inteligencia artificial para cualquier propósito “legal”. Bajo esa postura, la agencia no debería estar limitada por un contratista privado en cuanto a los usos permitidos para la tecnología adquirida.
La posición de Anthropic marcó una línea roja clara sobre el empleo de sus sistemas. Esa postura no solo abrió una confrontación contractual con el gobierno, sino que además activó un debate más amplio sobre quién define las reglas de uso cuando una herramienta de IA puede tener aplicaciones civiles, militares y de vigilancia.
TechCrunch reportó que el escrito de apoyo apareció en el expediente pocas horas después de que el fabricante de Claude presentara dos demandas contra el DOD y otras agencias federales.
Por qué empleados de OpenAI y Google apoyaron a Anthropic
En su declaración, los empleados de Google y OpenAI afirmaron que si el Pentágono ya no estaba satisfecho con los términos acordados de su contrato con Anthropic, la agencia pudo haber cancelado el acuerdo y contratar los servicios de otra empresa líder en inteligencia artificial.
Ese argumento apunta al corazón del caso. Los firmantes no solo cuestionan la decisión del DOD, sino también el mecanismo utilizado para presionar a una empresa que impuso límites al uso de su tecnología en contextos especialmente delicados.
El documento agrega que, si se permite este proceder, el castigo contra una de las principales compañías de IA de Estados Unidos tendrá consecuencias para la competitividad industrial y científica del país en inteligencia artificial y más allá. También advierte que podría enfriar el debate abierto dentro del sector sobre riesgos y beneficios de los sistemas actuales.
En otras palabras, los trabajadores sostienen que el caso no afecta solo a Anthropic. A su juicio, la acción del gobierno podría enviar una señal a todo el mercado: aceptar sin objeciones ciertos usos estatales o arriesgarse a sanciones con efectos reputacionales y comerciales.
La reacción dentro de OpenAI tras el contrato del DOD
El episodio se volvió aún más sensible porque el Departamento de Defensa firmó un acuerdo con OpenAI poco después de designar a Anthropic como riesgo para la cadena de suministro. El texto judicial indica que eso ocurrió “en cuestión de momentos” tras la medida contra la empresa creadora de Claude.
Ese movimiento provocó protestas de muchos empleados del creador de ChatGPT. La reacción interna sugiere que la controversia ya no se limita a una sola empresa, sino que atraviesa a varias organizaciones de punta en el desarrollo de modelos avanzados.
La situación también revela una tensión creciente entre la estrategia comercial de las compañías y las preocupaciones éticas de sus propios equipos. En especial, cuando los contratos públicos involucran seguridad nacional, vigilancia o aplicaciones armadas.
En las últimas semanas, muchos de los firmantes ya habían suscrito cartas abiertas en las que pedían al DOD retirar la etiqueta impuesta a Anthropic. Además, reclamaban a los líderes de sus empresas que respaldaran públicamente a la firma y rechazaran el uso unilateral de sus sistemas de IA.
Salvaguardias, contratos y el debate sobre el uso militar de la IA
El escrito presentado ante la corte señala que las líneas rojas declaradas por Anthropic responden a preocupaciones legítimas. Según los empleados, esas reservas justifican salvaguardias fuertes frente a escenarios de uso potencialmente catastrófico.
Ese punto es central para entender por qué el caso importa más allá de una pelea contractual. En ausencia de una ley pública que gobierne de forma clara el uso de la inteligencia artificial, las restricciones técnicas y contractuales impuestas por los desarrolladores se convierten en una barrera práctica frente a abusos.
La discusión, por tanto, no gira solo en torno al derecho del gobierno a contratar tecnología. También trata sobre si una agencia estatal puede forzar de hecho a una empresa a relajar sus límites de seguridad mediante sanciones o designaciones extraordinarias.
Para la industria de IA, esta controversia podría sentar un precedente importante. Si el gobierno logra castigar a un proveedor por negarse a habilitar vigilancia masiva o armas autónomas, otras firmas podrían verse presionadas a suavizar sus políticas internas para evitar conflictos con clientes públicos.
Al mismo tiempo, el respaldo cruzado de empleados de OpenAI y Google DeepMind muestra que, incluso entre competidores directos, existe preocupación por el impacto institucional del caso. No se trata solo de apoyar a Anthropic como empresa, sino de defender el espacio de deliberación ética dentro de un sector que hoy influye en seguridad, economía y poder estatal.
El litigio recién comienza, pero ya dejó una señal clara. La disputa entre Anthropic y el Departamento de Defensa se perfila como una prueba para definir cuánto control podrán conservar los desarrolladores sobre el destino final de sus sistemas, especialmente cuando esos sistemas despiertan interés militar o de inteligencia.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Anthropic lanza Code Review para frenar errores del código generado por IA
Empresas
Apple retrasa su pantalla inteligente para el hogar por nuevos problemas con Siri
Capital de Riesgo
Jay Graber deja la dirección de Bluesky y Toni Schneider asume como CEO interino
Empresas