Más de 30 empleados de OpenAI y Google DeepMind presentaron un escrito para apoyar la demanda de Anthropic contra el Departamento de Defensa de EE. UU., en un caso que agrava la disputa sobre los límites del uso militar de la inteligencia artificial.
***
- Más de 30 empleados de OpenAI y Google DeepMind respaldaron judicialmente a Anthropic.
- El Pentágono etiquetó a Anthropic como riesgo para la cadena de suministro tras desacuerdos sobre usos de IA.
- Los firmantes advierten que castigar a una empresa por imponer límites éticos podría afectar a toda la industria.
La disputa entre Anthropic y el Departamento de Defensa de Estados Unidos escaló esta semana con un nuevo respaldo desde dentro de la propia industria de inteligencia artificial. Más de 30 empleados de OpenAI y Google DeepMind presentaron el lunes una declaración en apoyo a la demanda interpuesta por Anthropic, luego de que la agencia federal calificara a la empresa como un riesgo para la cadena de suministro.
El caso ha llamado la atención porque no se trata solo de una pelea contractual. En el centro del conflicto está una pregunta cada vez más urgente para el sector tecnológico: hasta dónde puede llegar el gobierno en el uso de sistemas de IA, especialmente cuando las compañías desarrolladoras imponen límites por razones éticas, legales o de seguridad.
Según informó TechCrunch, entre los firmantes del documento figura Jeff Dean, científico jefe de Google DeepMind. El texto sostiene que la designación aplicada por el gobierno contra Anthropic constituyó un uso impropio y arbitrario del poder estatal, con posibles repercusiones serias para toda la industria.
La presentación judicial apareció en el expediente pocas horas después de que Anthropic, creadora del modelo Claude, presentara dos demandas contra el Departamento de Defensa y otras agencias federales. Wired reportó primero la existencia de esas acciones legales, que ahora se han convertido en uno de los casos más relevantes del año sobre gobernanza de IA en Estados Unidos.
Por qué el Pentágono señaló a Anthropic
La semana pasada, el Pentágono clasificó a Anthropic como un riesgo para la cadena de suministro. Ese tipo de etiqueta suele reservarse para adversarios extranjeros, lo que hizo que la decisión fuera percibida por muchos en el sector como una medida especialmente agresiva.
La razón de fondo, según los documentos citados, fue la negativa de Anthropic a permitir que el Departamento de Defensa usara su tecnología para vigilancia masiva de estadounidenses o para el uso autónomo de armas. La empresa había establecido esas líneas rojas como parte de las restricciones sobre el uso de sus sistemas.
El Departamento de Defensa, por su parte, argumentó que debería poder emplear inteligencia artificial para cualquier propósito que fuera “legal”, sin estar limitado por las condiciones impuestas por un contratista privado. Ese punto revela una tensión estructural entre el Estado y las compañías de IA, que hoy controlan herramientas con aplicaciones civiles, comerciales y militares al mismo tiempo.
Para muchos observadores, el conflicto también refleja una batalla más amplia por el control de la infraestructura tecnológica crítica. A medida que los modelos avanzados ganan peso estratégico, las decisiones contractuales sobre su uso dejan de ser simples cláusulas comerciales y pasan a influir en debates sobre seguridad nacional, derechos civiles y competitividad industrial.
El argumento de los empleados de OpenAI y Google DeepMind
En su presentación, los empleados de OpenAI y Google DeepMind sostienen que si el Pentágono ya no estaba conforme con los términos pactados con Anthropic, la agencia tenía una salida más simple. Podía cancelar el contrato y buscar los servicios de otra empresa líder en IA.
Ese punto es central en el escrito. Los firmantes plantean que, en lugar de optar por una solución de mercado, el gobierno eligió una medida punitiva que puede interpretarse como castigo contra una empresa que intentó restringir usos sensibles de su tecnología.
El documento añade que, si esta conducta se permite, la consecuencia podría ir mucho más allá de Anthropic. Los empleados advierten que castigar a una de las principales compañías de IA de Estados Unidos podría afectar la competitividad científica e industrial del país en el campo de la inteligencia artificial y en otras áreas relacionadas.
También señalan que una acción de este tipo podría enfriar la deliberación abierta dentro del sector. En otras palabras, temen que las empresas y sus investigadores dejen de debatir públicamente los riesgos y beneficios de los sistemas de IA actuales por miedo a represalias comerciales o políticas.
La relevancia del apoyo también reside en quiénes lo firman. Que trabajadores de dos empresas rivales se alineen con Anthropic sugiere que parte del ecosistema percibe el precedente como una amenaza transversal, no como un conflicto aislado entre una firma y el gobierno federal.
Las salvaguardias privadas como sustituto temporal de una ley pública
Otro de los puntos destacados del documento es la defensa de las líneas rojas declaradas por Anthropic. Los firmantes sostienen que esas restricciones responden a preocupaciones legítimas y que justifican la existencia de salvaguardias sólidas para evitar usos peligrosos o abusivos de la IA.
El escrito afirma que, mientras no exista una ley pública clara que regule el uso de inteligencia artificial, las limitaciones contractuales y técnicas impuestas por los desarrolladores funcionan como una barrera crítica frente al mal uso catastrófico. Esa idea resume uno de los vacíos regulatorios más visibles del momento.
En la práctica, muchas empresas de IA establecen límites sobre cómo pueden utilizarse sus modelos. Algunas prohíben aplicaciones vinculadas con armas autónomas, vigilancia biométrica o manipulación política. Sin un marco legal uniforme, esos controles privados han terminado ocupando un espacio que normalmente correspondería al legislador o al regulador.
El caso Anthropic pone a prueba precisamente la legitimidad de esas barreras. Si el gobierno puede sancionar a una empresa por hacerlas valer, el equilibrio actual entre innovación, responsabilidad y seguridad podría cambiar de forma significativa.
El contrato con OpenAI y la reacción interna
El documento judicial recuerda además que el Departamento de Defensa firmó un acuerdo con OpenAI poco después de designar a Anthropic como riesgo para la cadena de suministro. Esa secuencia temporal elevó las suspicacias sobre la forma en que se condujo el proceso.
Lejos de ser un detalle menor, ese nuevo acuerdo también provocó protestas entre muchos empleados de OpenAI. Parte del personal del creador de ChatGPT cuestionó el movimiento, en un contexto donde varios trabajadores del sector vienen reclamando mayor claridad sobre vínculos con agencias militares y usos sensibles de modelos avanzados.
La combinación de ambas cosas, sanción a Anthropic y contrato inmediato con OpenAI, aumentó la percepción de que el caso puede tener implicaciones competitivas además de éticas. Sin embargo, los empleados que respaldan a Anthropic no enfocan su reclamo en una teoría comercial, sino en la necesidad de preservar reglas claras y evitar represalias arbitrarias.
Muchos de los firmantes ya habían participado en cartas abiertas durante las últimas semanas. En esos textos, pidieron al Departamento de Defensa retirar la etiqueta contra Anthropic y solicitaron a los líderes de sus propias empresas que respaldaran a la compañía y rechazaran el uso unilateral de sus sistemas de IA.
Eso muestra que la controversia no surgió de un solo episodio judicial. Se trata de una presión creciente desde dentro de los laboratorios de IA, donde empleados, investigadores y técnicos intentan influir sobre las políticas de despliegue de herramientas que pueden tener un impacto directo en libertades civiles y capacidad militar.
Un precedente clave para la industria de IA
El litigio entre Anthropic y el Departamento de Defensa llega en un momento en que la inteligencia artificial ya no se discute solo como producto tecnológico. Ahora también se evalúa como infraestructura estratégica, con efectos potenciales sobre seguridad nacional, vigilancia estatal y poder económico.
Por eso, el resultado del caso podría marcar un precedente importante. Si los tribunales validan la actuación del gobierno, otras empresas podrían sentirse presionadas a relajar sus restricciones para conservar contratos públicos. Si ocurre lo contrario, las compañías tendrían una base más sólida para defender límites propios sobre usos de alto riesgo.
Más allá del desenlace, el caso deja una señal clara: la industria no está alineada de forma automática con todas las demandas estatales en materia de IA. Al contrario, una parte relevante de sus trabajadores parece decidida a defender la idea de que la innovación tecnológica también requiere fronteras, incluso cuando esas fronteras chocan con intereses del poder público.
En ese sentido, el apoyo de empleados de OpenAI y Google DeepMind a Anthropic revela una fractura real dentro del ecosistema. No es una disputa entre compañías rivales, sino una advertencia compartida sobre los costos de permitir que el gobierno castigue a quienes intenten imponer salvaguardias sobre tecnologías cada vez más poderosas.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Hardware
Thinking Machines Lab firma alianza multianual con Nvidia para desplegar 1 gigavatio de Vera Rubin
Empresas
Amazon convoca reunión urgente tras fallas vinculadas a cambios asistidos por IA
Capital de Riesgo
Yann LeCun impulsa a AMI Labs con USD $1.030 millones para desarrollar modelos del mundo
Empresas