Por Canuto  

Estados Unidos elevó sus acusaciones contra China por una presunta campaña sistemática para robar, replicar y sabotear tecnología de inteligencia artificial desarrollada por empresas estadounidenses. El señalamiento combina testimonios ante el Congreso, advertencias de seguridad nacional y el caso del exingeniero de Google Linwei Ding, condenado por espionaje económico.

***

  • Un testimonio ante la Cámara de Representantes afirmó que empresas chinas usan ataques de distilación, espionaje económico y ciberintrusión para apropiarse de avances de IA de EE. UU.
  • La preocupación creció tras la condena del exingeniero de Google Linwei Ding, hallado culpable de robar miles de páginas de secretos comerciales vinculados a IA para beneficiar a China.
  • Entre las recomendaciones al Congreso figuran crear un grupo anti-distilación, reforzar estándares de seguridad para laboratorios de IA y financiar oficinas técnicas clave dentro del gobierno.

 


La Casa Blanca y sectores del Congreso de Estados Unidos elevaron el tono frente a China al acusarla de sostener una campaña de “robo a escala industrial” contra la inteligencia artificial (IA) desarrollada por empresas estadounidenses.

La denuncia no se limita al espionaje corporativo tradicional, sino que también abarca nuevas formas de extracción de capacidades, como los llamados ataques de distilación sobre modelos avanzados.

El señalamiento quedó plasmado en un testimonio presentado el 16 de abril de 2026 ante el Comité Selecto de la Cámara sobre la Competencia Estratégica entre Estados Unidos y el Partido Comunista Chino. Allí, Yusuf Mahmood, director de política de IA y tecnología emergente del America First Policy Institute, sostuvo que China se encuentra en una carrera para superar a Estados Unidos en IA hacia 2030, pero que sus debilidades en capital, talento y semiconductores la empujan a competir por medios ilícitos.

Según Mahmood, las capacidades chinas de frontera en IA se ubican, en promedio, unos siete meses detrás de las estadounidenses. A su juicio, ese patrón de rezago corto y constante no sería una señal de innovación paralela normal, sino un indicio de una estrategia de “fast following” apoyada en robo, copia y extracción sistemática de avances ajenos.

Para lectores menos familiarizados con el tema, la distilación es una técnica legítima cuando se usa con autorización para transferir conocimiento de un modelo grande a uno más pequeño. El problema, según las acusaciones expuestas en Washington, surge cuando empresas crean cuentas fraudulentas, consultan masivamente modelos ajenos, generan datos sintéticos y entrenan con ellos sistemas propios, en violación de términos de servicio y potencialmente de la ley.

Las acusaciones sobre distilación y espionaje

Mahmood afirmó que OpenAI acusó a firmas chinas, entre ellas DeepSeek, de emplear “pipelines sofisticados de múltiples etapas” para robar capacidades de IA estadounidenses mediante ataques de distilación. El testimonio agrega que otras compañías importantes, como Google, Anthropic y xAI, también han denunciado conductas similares por parte de actores chinos.

De acuerdo con el documento presentado a la Cámara, DeepSeek habría realizado uno de los primeros casos ampliamente publicitados de destilación a inicios de 2025 para crear su modelo R1. Un informe previo del mismo comité concluyó que era “altamente probable” que DeepSeek hubiera usado técnicas ilegales de destilación de modelos para construir R1 a partir de OpenAI.

Mahmood también citó datos de Anthropic para ilustrar la escala de estas prácticas. Según esa empresa, ataques más recientes habrían generado más de 16 millones de intercambios a través de unas 24.000 cuentas fraudulentas, y el desarrollador chino MiniMax habría representado más de 13 millones de esos intercambios.

La fuente legislativa estadounidense sostuvo además que el problema no se reduce a robar datos de entrenamiento. También incluiría el uso de modelos de terceros para filtrar datos y simular retroalimentación humana, lo que permitiría a competidores ahorrar tiempo, dinero y cómputo en el desarrollo de sistemas propios.

Decrypt resumió esta línea de acusaciones como una postura de la Casa Blanca que responsabiliza a China por un robo “a escala industrial” de modelos de IA estadounidenses. Esa lectura encaja con la narrativa de seguridad nacional que domina ahora el debate en Washington.

El caso de Linwei Ding y los secretos de Google

La alarma política también se apoya en casos judiciales concretos. En enero de 2026, un jurado federal condenó al exingeniero de Google Linwei Ding por siete cargos de espionaje económico y siete cargos de robo de secretos comerciales. El jurado concluyó que Ding sustrajo más de 2.000 páginas de secretos relacionados con IA durante 2022 y 2023.

El testimonio de Mahmood indica que los robos de Ding se activaron tras un encuentro con oficiales de inteligencia chinos y que estaban destinados a beneficiar al programa nacional de IA de China. Entre los documentos sustraídos figuraba información sobre el funcionamiento de centros de datos de IA de Google, un tipo de conocimiento que podría acelerar de forma significativa las capacidades técnicas de cualquier rival estatal o corporativo.

Fox News añadió otro elemento importante al relatar que un exoficial de la CIA, Tom Lyons, dijo ante senadores que Ding no solo robó tecnología, sino que después la habría usado para levantar una startup para China. Según ese relato, el antiguo empleado descargó datos sensibles sobre infraestructura de IA de Google, incluidos diseños de chips y software para entrenar modelos avanzados, y los subió a una cuenta personal mientras colaboraba en secreto con firmas tecnológicas chinas.

Lyons dijo al Comité Judicial del Senado que las empresas estadounidenses no compiten con rivales chinos “en ningún sentido normal”, porque en realidad enfrentan al “aparato de inteligencia más grande del mundo”. También afirmó que no se trata de una rivalidad empresarial convencional, sino de una startup estadounidense frente a los recursos del Ejército Popular de Liberación.

El punto de fondo es que Washington ya no ve estos hechos como incidentes corporativos aislados. El diagnóstico que emerge es el de una presión sistémica, donde la propiedad intelectual de IA se convierte en insumo directo para ambiciones geopolíticas, militares y de vigilancia.

Riesgos de ciberintrusión, insiders y sabotaje

El testimonio de Mahmood divide la amenaza en dos grandes blancos: secretos comerciales sobre tecnología de IA y pesos de modelos. Los primeros abarcan arquitecturas, metodologías de entrenamiento y técnicas de procesamiento de datos. Los segundos son aún más delicados, porque permiten replicar con precisión el comportamiento de un modelo avanzado sin pagar el costo de su entrenamiento.

En esa lógica, el robo de pesos de modelos podría tener implicaciones inmediatas. Un actor estatal que obtenga esos archivos podría desplegar o ajustar un sistema de frontera para fines militares, de vigilancia o de ciberataque. Por eso, el texto remarca que se trata de uno de los activos más sensibles dentro de los laboratorios punteros de IA.

Mahmood identificó dos vectores de riesgo especialmente serios: insiders comprometidos y vulnerabilidades de ciberseguridad. Sobre el primer punto, afirmó que alrededor de 38% de los principales investigadores de IA en laboratorios e instituciones estadounidenses recibieron su educación universitaria en China, y señaló que la legislación de inteligencia de ese país obliga a los ciudadanos a cooperar con el trabajo de inteligencia estatal.

Grupos de Beijing vinculados a espionaje 

Sobre la ciberintrusión, el testimonio recordó que grupos vinculados a Beijing ya han sido asociados con operaciones de espionaje industrial y político. También mencionó que una agrupación llamada “Diplomatic Specter” habría intentado atacar a OpenAI mediante correos altamente personalizados dirigidos a empleados.

El documento va más allá y plantea la amenaza de “model poisoning”, o envenenamiento de modelos. Ese tipo de ataque consiste en manipular datos de entrenamiento para insertar puertas traseras, sesgos ocultos o comportamientos maliciosos. Mahmood cita investigaciones recientes que sugieren que bastarían apenas 250 documentos maliciosos para insertar backdoors en modelos de 13.000 millones de parámetros, sin que el volumen necesario escale con el tamaño del sistema.

La consecuencia es inquietante para la seguridad nacional. Si la IA se integra cada vez más en defensa, inteligencia, infraestructura crítica y herramientas de automatización, un modelo envenenado podría fallar justo cuando más importa, o incluso actuar como un agente encubierto alineado con intereses hostiles.

Qué propone Washington para responder

El testimonio presentado ante la Cámara sostiene que el gobierno estadounidense aún no está bien preparado para enfrentar esta clase de amenazas. Como respuesta, propone construir oficinas pequeñas, técnicas y con alta densidad de talento que puedan anticipar riesgos, coordinar con la industria y traducir señales tecnológicas complejas en decisiones de Estado.

Entre las recomendaciones al Congreso figura crear un grupo de trabajo anti-distilación coordinado por el AI Security Center de la NSA junto con el Center for AI Standards and Innovation, la Bureau of Emerging Threats, otras oficinas de inteligencia y la industria privada. La meta sería generar mejores prácticas, compartir inteligencia y cerrar una de las rutas más baratas de apropiación tecnológica.

También se plantea establecer protecciones para denunciantes que alerten sobre vulnerabilidades de seguridad en laboratorios de IA, fijar estándares mínimos de seguridad para los desarrolladores de frontera y ordenar ejercicios de red teaming dirigidos por la NSA para detectar fallas en toda la cadena de suministro del desarrollo de IA.

En el plano institucional, Mahmood pide autorizar y financiar con entre USD $50.000.000 y USD $100.000.000 anuales al Center for AI Standards and Innovation dentro del Departamento de Comercio. Además, propone fortalecer la Bureau of Emerging Threats del Departamento de Estado para que produzca análisis regulares sobre competencia tecnológica y amenazas emergentes vinculadas con China.

El mensaje final del testimonio es directo: si Estados Unidos no responde con urgencia, China podría acercarse a su objetivo de liderazgo global en IA hacia 2030. Más allá del tono político del documento, el debate revela algo central para la economía digital actual: en la carrera por la IA, los modelos, los chips, los datos y la seguridad ya son activos estratégicos comparables a la energía, la infraestructura crítica o incluso el poder militar.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín