Por Canuto  

El personal de Google DeepMind en Londres dio un paso decisivo para sindicalizarse y presionar a la empresa por el uso militar de sus modelos de inteligencia artificial. La iniciativa surge en medio de una protesta ética cada vez más visible dentro de Google por contratos vinculados a Israel y al Departamento de Defensa de Estados Unidos.

***

  • El 98% de los miembros de la CWU en DeepMind votó a favor de la sindicalización.
  • La iniciativa busca representar al menos a 1.000 empleados de la sede de Londres.
  • Los trabajadores exigen límites claros al desarrollo de armas, vigilancia y contratos militares con IA.

 


Los trabajadores de Google DeepMind en Reino Unido han iniciado un proceso de sindicalización con un objetivo concreto: impedir que la tecnología de IA desarrollada por la empresa termine en operaciones militares de Israel y EE. UU.

La medida marca uno de los desafíos laborales más delicados para Google en un momento en que la carrera global por la IA se cruza con debates éticos, geopolíticos y de seguridad.

La decisión se formalizó en una carta enviada a la dirección de Google, en la que los empleados pidieron que Communication Workers Union y Unite the Union sean reconocidos como representantes conjuntos del personal. Según la información reportada por The Verge, el 98% de los miembros de la CWU en DeepMind votó a favor de la medida.

Si prospera, la iniciativa daría representación a por lo menos 1.000 empleados de la sede de Google DeepMind en Londres. La empresa dispone ahora de 10 días hábiles para reconocer voluntariamente el esfuerzo sindical. Si no lo hace, podrían iniciarse procedimientos legales formales para forzar ese reconocimiento.

El movimiento no surge en el vacío. En los últimos meses, dentro de Google ha crecido la oposición interna al uso de modelos de IA en contratos clasificados y en acuerdos con instituciones de defensa. El caso DeepMind añade un nuevo frente a esa tensión, porque involucra a una de las unidades más estratégicas del grupo en investigación y desarrollo de inteligencia artificial avanzada.

Una protesta laboral con motivación ética

La sindicalización está impulsada por una preocupación moral explícita. En un comunicado compartido por la CWU, un empleado de DeepMind que no fue identificado afirmó que no quiere que los modelos de IA sean cómplices de violaciones del derecho internacional. El mismo trabajador sostuvo que, aunque la empresa asegure que su trabajo tiene fines administrativos, igualmente estaría ayudando a que la violencia sea “más barata, más rápida y más eficiente”.

Esa declaración refleja el núcleo del conflicto: no se trata solo de salarios o condiciones laborales, sino del destino final de la tecnología creada por los equipos de IA. Los empleados sostienen que incluso aplicaciones indirectas, como sistemas de clasificación, análisis o soporte operativo, pueden formar parte de una infraestructura más amplia de vigilancia o uso militar.

En este punto, el caso DeepMind resulta especialmente sensible. La empresa fue durante años presentada como un laboratorio de investigación de frontera, centrado en ciencia, seguridad y aplicaciones de largo plazo. Sin embargo, la acelerada comercialización de la IA generativa y la creciente demanda gubernamental por este tipo de herramientas han alterado ese equilibrio.

Para muchos trabajadores del sector, la discusión ya no es abstracta. La expansión de contratos de defensa para empresas tecnológicas plantea preguntas sobre responsabilidad individual, libertad de objeción y gobernanza corporativa. DeepMind se convierte así en un termómetro del malestar que atraviesa aparte de la industria.

Qué exigen los empleados de DeepMind

La iniciativa sindical incluye demandas específicas dirigidas a Google. Entre ellas figura un compromiso claro de no impulsar el desarrollo de armas, tecnologías o contratos que dañen o vigilen a las personas. También piden abrir negociaciones sobre cualquier uso de la IA que afecte materialmente sus puestos, cargas de trabajo o seguridad laboral.

Otro punto clave es el derecho de los trabajadores a abstenerse de participar en proyectos que entren en conflicto con sus normas morales o éticas personales. Esta exigencia busca institucionalizar una forma de objeción de conciencia dentro de una compañía tecnológica, algo poco común en firmas del tamaño y alcance de Google.

La demanda tiene implicaciones más amplias para el sector. Si este tipo de cláusulas llegara a consolidarse en un laboratorio de la relevancia de DeepMind, otras plantillas tecnológicas podrían intentar avanzar en mecanismos similares, sobre todo en empresas expuestas a contratos de seguridad, defensa o vigilancia.

Además de la vía sindical, según lo reseñado, empleados de DeepMind en distintas regiones también estudian protestas presenciales y posibles “huelgas de investigación”. Eso implicaría abstenerse de trabajar en mejoras para servicios de IA de Google, incluido Gemini, como parte de una campaña mayor contra los contratos militar-industriales de la empresa.

Presión creciente sobre Google

La ofensiva laboral llega apenas una semana después de que cientos de empleados de Google firmaran una carta abierta dirigida al CEO Sundar Pichai. En ese documento, exigieron que la empresa se negara a firmar contratos clasificados de IA con el Pentágono. La secuencia muestra que la oposición interna ya no está limitada a incidentes aislados.

Poco después, Google, junto con OpenAI y Nvidia, firmó acuerdos que, según informes citados en la cobertura original, permiten al Departamento de Defensa de Estados Unidos utilizar sus modelos de IA para “cualquier propósito gubernamental lícito”. Esa formulación elevó la preocupación entre trabajadores y observadores del sector, porque deja un margen amplio para usos sensibles.

El historial reciente de Google también pesa sobre la situación actual. En 2024, la empresa despidió a más de 50 empleados en respuesta a una protesta por sus vínculos militares con el gobierno israelí. Ese antecedente hace pensar que el conflicto no solo gira en torno a políticas de producto, sino también a la manera en que la compañía gestiona la disidencia interna.

Google no respondió la solicitud de comentarios de los medios. El silencio corporativo, en este contexto, deja abierto un escenario incierto sobre si la empresa optará por reconocer voluntariamente la sindicalización o por resistirse en la vía legal.

Un precedente para la industria de IA

Más allá de DeepMind, el episodio puede sentar un precedente para todo el ecosistema de inteligencia artificial. Las empresas líderes compiten por contratos empresariales y gubernamentales, mientras los desarrolladores y científicos que construyen los modelos intentan influir sobre el uso final de sus sistemas. Esa tensión se ha vuelto estructural.

John Chadfield, responsable nacional de la CWU para trabajadores tecnológicos, describió el momento como especialmente importante. Sostuvo que los trabajadores del laboratorio de IA de vanguardia de Google están conectando de forma significativa con comunidades oprimidas alrededor del mundo y actuando desde principios de solidaridad y sindicalismo.

Chadfield añadió que, al ejercer sus derechos de colectivización, los empleados quedan en una posición más fuerte para exigir a su empleador que abandone lo que calificó como un giro hacia el “desagüe ético” de los contratos militar-industriales. La frase resume la gravedad política que los sindicatos quieren atribuir al debate.

Para el mundo tecnológico y financiero, el caso también importa porque evidencia un nuevo factor de riesgo en la economía de la IA: el conflicto entre talento altamente especializado y dirección corporativa. Cuando los modelos avanzados se vuelven infraestructura crítica para negocios, defensa y geopolítica, la resistencia interna de los equipos puede convertirse en una variable estratégica tan relevante como el capital, los chips o la regulación.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín