Por Canuto  

Los empleados de Google DeepMind en Londres votaron a favor de sindicalizarse en medio de una creciente oposición interna al uso militar de la inteligencia artificial. El movimiento surge tras cambios en las directrices éticas de Alphabet y en un contexto de nuevos acuerdos de Google con el Departamento de Defensa de Estados Unidos.
***

  • Trabajadores de Google DeepMind en Londres pidieron que la empresa reconozca al Communication Workers Union y a Unite the Union.
  • La sindicalización tomó fuerza después de que Alphabet eliminara en febrero de 2025 su promesa de no usar IA en armas y vigilancia.
  • El personal también cuestiona acuerdos con el Pentágono y el contrato de larga duración de Google con el ejército israelí.


La tensión alrededor del uso militar de la inteligencia artificial ya no se limita a debates entre gobiernos, laboratorios y reguladores. Ahora también se manifiesta dentro de algunas de las empresas más influyentes del sector, donde parte del personal exige mayor control sobre cómo se diseñan, comercializan y aplican los modelos avanzados.

Ese es el caso de Google DeepMind en Londres, donde los empleados votaron a favor de sindicalizarse como parte de un esfuerzo dirigido a impedir que el laboratorio de IA suministre su tecnología a los ejércitos de Estados Unidos e Israel. La iniciativa busca fortalecer la capacidad de los trabajadores para presionar a la dirección de la empresa sobre decisiones éticas y comerciales que consideran cada vez más sensibles.

En una carta dirigida a Debbie Weinstein, directora general de Google para Reino Unido e Irlanda, los trabajadores solicitaron que la empresa reconozca al Communication Workers Union y a Unite the Union como representantes conjuntos del personal de DeepMind. El movimiento apunta a lograr una interlocución formal con la gerencia en un momento de creciente malestar por la dirección estratégica de la compañía.

John Chadfield, responsable nacional de tecnología del CWU, dijo a WIRED que el impulso sindical tiene como base la exigencia de que Google cumpla sus propios estándares éticos sobre la IA, la forma en que monetiza esta tecnología, lo que hacen sus productos y con quién trabaja. Añadió que, mediante la sindicalización, los trabajadores quedan en una posición colectiva mucho más fuerte para presentar demandas ante una dirección que, a su juicio, se ha vuelto cada vez más sorda.

De fondo, el conflicto revela una disputa más amplia en la industria tecnológica. La promesa de desarrollar IA para beneficiar a la humanidad convive hoy con contratos gubernamentales, exigencias de seguridad nacional y presiones para integrar estos sistemas en entornos de defensa, vigilancia y operaciones estratégicas.

El cambio ético que activó la protesta

Según un empleado de DeepMind que habló bajo condición de anonimato por temor a represalias, el impulso concreto por sindicalizarse comenzó en febrero de 2025. Ese fue el momento en que Alphabet, la matriz de Google, eliminó de sus directrices éticas una promesa que descartaba el uso de IA para fines como el desarrollo de armas y la vigilancia.

Para parte del personal, esa modificación no fue un detalle de redacción ni un simple ajuste corporativo. Representó una señal clara de que la compañía estaba abriendo la puerta a una relación más estrecha entre sus modelos de IA y aplicaciones militares o de monitoreo, justo en un periodo en que estas tecnologías ganan peso geopolítico.

“Mucha gente aquí creyó en el lema de Google DeepMind de ‘construir IA de forma responsable para beneficiar a la humanidad’”, dijo el empleado a la publicación. “La dirección que estamos tomando es hacia una mayor militarización de los modelos de IA que estamos construyendo aquí”.

La preocupación no se limita al aspecto simbólico. Los trabajadores temen que, sin compromisos claros y verificables, las restricciones actuales terminen siendo demasiado ambiguas para contener despliegues controvertidos en contextos de guerra, vigilancia o seguridad interior.

Ese temor se vio reforzado por reportes recientes sobre acuerdos gubernamentales. La semana pasada, The New York Times informó que Google había alcanzado un acuerdo que permitiría al Pentágono usar su IA para “cualquier propósito gubernamental lícito”, una fórmula que algunos empleados consideran demasiado amplia para ofrecer garantías reales.

El mismo trabajador de DeepMind afirmó que la cláusula de “cualquier propósito lícito” es lo bastante vaga como para resultar, en la práctica, irrelevante. Esa lectura ayuda a explicar por qué la disputa interna ha escalado desde un debate ético a una estrategia organizada de presión laboral.

Contratos militares, carta abierta y oposición interna

El malestar dentro de Google también coincide con una movilización más visible en otras áreas del ecosistema de IA. A finales de febrero, empleados de DeepMind y OpenAI firmaron una carta abierta en apoyo a Anthropic, después de que el Departamento de Defensa de Estados Unidos intentara designar a ese laboratorio como un riesgo para la cadena de suministro.

La razón de ese intento fue la negativa de Anthropic a permitir que su IA se utilizara en armas autónomas o en vigilancia masiva de ciudadanos estadounidenses. Ese episodio mostró hasta qué punto las relaciones entre laboratorios de frontera y autoridades de defensa se están volviendo una fuente de fricción estratégica, política y ética.

La semana pasada, además, el Departamento de Defensa de Estados Unidos confirmó que había alcanzado acuerdos con siete empresas líderes de IA, entre ellas Google, SpaceX, OpenAI y Microsoft, para utilizar sus modelos en redes clasificadas. Esa confirmación dio más peso a la percepción de que la integración entre grandes laboratorios y aparatos estatales de seguridad está acelerándose.

En paralelo, aproximadamente 600 empleados de Google con base en Estados Unidos firmaron, según se informó, una carta de protesta contra el acuerdo. Esa reacción sugiere que el descontento no está aislado en Londres ni restringido a un solo equipo, sino que refleja una inquietud más amplia entre trabajadores del grupo.

Google no respondió de inmediato a una solicitud de comentarios mencionada en el reporte original. Sin embargo, la empresa ya había defendido previamente este tipo de alianzas con organismos gubernamentales, presentándolas como parte de un marco de cooperación legítimo en materia de seguridad nacional.

Jenn Crider, portavoz de Google, dijo a The New York Times que la compañía se siente orgullosa de formar parte de un amplio consorcio de laboratorios líderes de IA y empresas tecnológicas y de nube que proporcionan servicios e infraestructura de IA en apoyo de la seguridad nacional. También sostuvo que Google sigue comprometida con el consenso de los sectores público y privado de que la IA no debe usarse para vigilancia masiva doméstica ni armamento autónomo sin una supervisión humana adecuada.

Qué buscan los trabajadores si Google reconoce al sindicato

La sindicalización en Reino Unido podría dar a los empleados una herramienta más sólida para negociar exigencias específicas. De acuerdo con el empleado citado, si el personal consigue sindicalizarse, probablemente pedirá que Google abandone su contrato de larga duración con el ejército israelí.

Además, los trabajadores buscarían una mayor transparencia sobre cómo se usarán sus productos de IA. Esa demanda no es menor, porque uno de los principales problemas en este debate es que muchos sistemas desarrollados para tareas generales pueden luego adaptarse a funciones de defensa, análisis de inteligencia o vigilancia, sin que los equipos que los crean conozcan todo su ciclo de uso.

El personal también aspira a obtener algún tipo de garantía relacionada con despidos facilitados por la automatización. En otras palabras, la disputa no trata solo sobre ética militar. También abarca el impacto laboral de la IA dentro de la propia organización, donde la automatización puede cambiar funciones, reducir puestos o redefinir el valor del trabajo humano en investigación y desarrollo.

La carta enviada a la dirección advierte que, si Google no participa en el proceso, los empleados pedirán a un comité de arbitraje que obligue a la empresa a reconocer a los sindicatos. Ese paso elevaría el conflicto a una instancia formal y podría convertir el caso en una referencia clave para otras empresas del sector tecnológico en Reino Unido.

El antecedente más cercano dentro de la propia compañía es el Alphabet Workers Union, formado en 2021 por empleados de Google en Estados Unidos. Aunque Alphabet no lo reconoce para fines de negociación colectiva, ese sindicato ha conseguido anteriormente negociar acuerdos en nombre de contratistas de Google, lo que demuestra que incluso estructuras no reconocidas pueden generar presión concreta.

En este caso, el objetivo del personal de DeepMind parece más ambicioso. No solo busca representación, sino también incidir en decisiones estratégicas sobre ética, defensa, transparencia y empleo en una de las divisiones de IA más influyentes del mundo.

Un posible efecto contagio en otros laboratorios de Londres

La ciudad de Londres se ha consolidado como uno de los centros más importantes para el desarrollo de inteligencia artificial avanzada en Europa. Desde comienzos de este año, tanto Anthropic como OpenAI han anunciado grandes expansiones de sus operaciones en la capital británica.

Ese crecimiento convierte a la disputa en DeepMind en algo más que un asunto interno de Google. Si la iniciativa prospera, podría abrir un precedente organizativo para investigadores, ingenieros y personal técnico de otros laboratorios que enfrentan inquietudes similares sobre usos militares, gobernanza interna y seguridad laboral.

El CWU espera precisamente ese efecto. Chadfield afirmó que estas conversaciones ya están ocurriendo y que trabajadores de otros laboratorios de frontera han visto lo hecho por el personal de Google DeepMind y se han acercado al sindicato en busca de ayuda.

La evolución del caso será observada muy de cerca por la industria de IA. No solo pone en discusión los límites del uso militar de modelos avanzados, sino también quién tiene voz para decidir ese rumbo: la alta gerencia, los gobiernos que contratan la tecnología o los equipos que la construyen.

Para un sector acostumbrado a hablar de alineación de sistemas y seguridad de modelos, el episodio introduce otra forma de alineación igual de relevante. Se trata de alinear el desarrollo tecnológico con las convicciones de quienes lo hacen posible, especialmente cuando las consecuencias pueden extenderse mucho más allá del laboratorio.

En ese sentido, la votación en Londres marca un punto de inflexión. Muestra que la batalla por la gobernanza de la IA ya no se libra solo en parlamentos, tribunales o cuarteles, sino también dentro de las oficinas donde se escribe el código y se entrenan los modelos.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín