Por Canuto  

La Comisión Europea estudia una propuesta para modificar cómo se aplica la protección de datos en la UE con el objetivo de favorecer el desarrollo de inteligencia artificial. Documentos vistos por Politico, y recogidos por TechRadar, sugieren que la GDPR y otras normas podrían relajarse en aspectos técnicos para permitir el uso de datos seudonimizados en el entrenamiento de modelos y ampliar bases legales para el rastreo de usuarios.

***

  • Según Politico, una propuesta para un “omnibús digital” prevista para el 19 de noviembre de 2025 podría suavizar la GDPR y otras leyes de privacidad.
  • Los cambios permitirían que datos seudonimizados y categorías sensibles se usen para entrenar IA; la medida ya genera rechazo en varios Estados miembros.
  • El arquitecto de la GDPR, Jan Philipp Albrecht, advirtió que la reforma podría “socavar drásticamente” los estándares europeos; Alemania y Finlandia muestran posturas divergentes.

La Unión Europea analiza una propuesta que podría relajar parte de la regulación de protección de datos para favorecer a la industria de inteligencia artificial. Documentos citados por Politico y reproducidos por TechRadar indican que la Comisión Europea prepara un paquete normativo que simplifique las reglas tecnológicas, conocido en algunos borradores como “omnibús digital”.

La iniciativa, cuya presentación está prevista para el 19 de noviembre de 2025, busca mejorar la competitividad europea frente a Estados Unidos y China en el desarrollo de IA. Según los papeles revisados por Politico, la revisión incluiría cambios técnicos en la aplicación de la GDPR y otras leyes de privacidad.

Entre las modificaciones que circulan en los borradores figura la posibilidad de que datos seudonimizados no mantengan siempre el mismo estatus de protección. Esto abriría la puerta a que esos datos sean utilizados para entrenar modelos de inteligencia artificial en categorías sensibles como opiniones políticas, religión y salud.

TechRadar recoge además que los cambios podrían ampliar las bases legales para que sitios web y aplicaciones rastreen a usuarios más allá de la vía del consentimiento. La intención, según defensores de la reforma, es reducir la burocracia que frena despliegues comerciales de IA en Europa.

Qué significa usar datos seudonimizados para entrenar IA

Los datos seudonimizados se obtienen al eliminar o reemplazar identificadores directos, aunque la información original puede ser reconstruible con técnicas adicionales. En el debate técnico, esa distinción entre seudonimización y anonimización es central.

Si la normativa dejara de proteger siempre esos registros, desarrolladores podrían procesar conjuntos que incluyan indicios de afecciones médicas, creencias religiosas o alineaciones políticas. Policymakers defienden que la flexibilidad técnica es necesaria para el avance de modelos más robustos.

Los críticos, sin embargo, alertan que la medida aumentaría el riesgo de reidentificación y de usos indebidos. Jan Philipp Albrecht, reconocido como arquitecto de la GDPR, señaló que un cambio de ese calado podría “socavar drásticamente” los estándares europeos.

Es decir, la discusión no es solo técnica: también implica principios sobre derechos fundamentales y límites éticos del procesamiento automatizado. La tensión entre innovación y tutela de la privacidad queda expuesta con claridad en este debate.

Implicaciones legales y de mercado

Modificar la aplicación de la GDPR tendría consecuencias directas en cómo empresas y startups gestionan la recopilación de datos. Un marco más laxo podría facilitar el acceso a grandes volúmenes de información para entrenamiento y evaluación de modelos.

Los defensores sostienen que eso permitiría a Europa competir mejor con grandes corporaciones tecnológicas de Estados Unidos y China. Desde esa perspectiva, las reglas actuales se perciben como un freno a la escalabilidad y a la rapidez de despliegue comercial.

No obstante, los organismos reguladores de privacidad en la UE ya han bloqueado o retrasado varios despliegues de IA de empresas como Meta, Google y OpenAI. Esos episodios son citados por quienes piden reformar las normas para evitar apresuradas interrupciones de servicios tecnológicos.

Al mismo tiempo, introducir excepciones o reinterpretaciones técnicas en la GDPR obligaría a definir límites muy precisos. La Comisión Europea ha sido cautelosa y no ha emitido una declaración pública definitiva sobre estos cambios.

Reacciones políticas y división entre Estados miembros

La potencial revisión enfrenta resistencia política: la República Checa, Estonia, Francia, Austria y Eslovenia se han manifestado en contra de reescribir la GDPR en estos términos. Su oposición se centra en preservar los estándares de protección de datos vigentes.

En contraste, Alemania parece mostrar apoyo a una mayor flexibilidad, mientras que Finlandia ha expresado apertura a cambios que impulsen la competitividad de la IA europea. Estas diferencias revelan la complejidad de alcanzar un consenso en materia digital.

El choque entre posturas nacionales y la presión de la industria trazan un panorama de negociación intensa. Para algunos legisladores, cambiar ahora la GDPR, una ley relativamente nueva, exigirá un escrutinio político profundo y argumentos sólidos.

También existe una dimensión internacional: la fortaleza de las normas europeas ha servido de referente global en protección de datos. Alterarlas podría tener efectos reputacionales y afectar la posición de la UE en foros regulatorios internacionales.

Escenarios para desarrolladores y usuarios

Para las empresas de IA, una relajación técnica podría acelerar proyectos de entrenamiento y pruebas con datos más diversos. Esa posibilidad entusiasma a desarrolladores que buscan grandes corpus para mejorar la precisión y robustez de sus modelos.

Para los usuarios, el cambio podría traducirse en mayor recolección y procesamiento de información sensible, a veces sin el mismo nivel de control o transparencia. Los activistas de privacidad advierten sobre la posible erosión de derechos en ámbitos sensibles.

La discusión también plantea preguntas prácticas: ¿qué salvaguardas se impondrán? ¿habrá mecanismos de auditoría o límites temporales para el uso de datos sensibles en modelos de IA? Los borradores mencionados por Politico no detallan todas estas medidas.

En los próximos días y semanas, la atención se centrará en la versión final del paquete normativo que presente la Comisión Europea. Ese texto definirá el alcance real de cualquier cambio y abrirá la negociación formal con los Estados miembros y el Parlamento Europeo.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín