Por Canuto  

El Parlamento Europeo respaldó cambios relevantes a la Ley de IA de la UE: quiere prohibir los sistemas “nudifier” y aplazar varias obligaciones para desarrolladores de IA de alto riesgo y proveedores de contenido generado por IA. La decisión abre una nueva fase de negociación con el Consejo, pero mantiene viva la incertidumbre para el sector.

***

  • Los eurodiputados apoyaron prohibir los sistemas de IA que generen imágenes íntimas o sexualmente explícitas de personas reales sin su consentimiento.
  • Las nuevas fechas propuestas mueven hasta diciembre de 2027, agosto de 2028 y noviembre de 2026 distintos hitos de cumplimiento de la Ley de IA.
  • El texto aún no es definitivo: Parlamento y Consejo deben negociar el formato final antes de que los cambios entren formalmente en vigor.

 


La Unión Europea dio un paso político importante en la revisión de su histórica Ley de IA.

El Parlamento Europeo votó a favor de retrasar varios plazos clave de cumplimiento y, al mismo tiempo, respaldó la idea de prohibir los llamados sistemas “nudifier”, herramientas de inteligencia artificial (IA) usadas para crear o manipular imágenes íntimas o sexualmente explícitas que se parezcan a una persona real identificable sin su consentimiento.

Según el comunicado oficial del Parlamento Europeo, la decisión fue aprobada por una amplia mayoría, con 569 votos a favor, 45 en contra y 23 abstenciones, un resultado que fortalece el mandato negociador de la institución para la siguiente etapa del proceso legislativo.

Para quienes siguen el tema desde fuera de Europa, la Ley de IA es la gran apuesta regulatoria del bloque para ordenar el despliegue de sistemas de inteligencia artificial. Su enfoque clasifica herramientas y usos según el nivel de riesgo, con exigencias mucho más estrictas para aplicaciones consideradas de alto impacto sobre la salud, la seguridad o los derechos fundamentales.

El cambio que más atención pública ha recibido es la intención de prohibir los “nudifiers”. La propuesta llega después de meses de preocupación por los deepfakes sexualizados y por la facilidad con la que algunas aplicaciones permiten generar imágenes falsas de desnudos a partir de fotos reales. La indignación se intensificó a comienzos de año tras una ola de imágenes sexualizadas asociadas a Grok en X, un episodio que elevó la presión política en Bruselas.

Nuevas fechas para sistemas de alto riesgo y marcas de agua

El Parlamento quiere introducir fechas de aplicación más claras para dar previsibilidad jurídica a las empresas. En el caso de los sistemas de IA de alto riesgo enumerados específicamente en la norma, la propuesta fija el 2 de diciembre de 2027 como nueva referencia. En esta categoría entran sistemas vinculados con biometría, infraestructuras críticas, educación, empleo, servicios esenciales, aplicación de la ley, justicia y gestión de fronteras.

Para otro grupo de herramientas, el plazo sería aún más largo. Los sistemas de IA comprendidos dentro de la legislación sectorial de la UE sobre seguridad y vigilancia del mercado tendrían hasta el 2 de agosto de 2028. Esto incluye productos y sectores ya regulados por marcos específicos, como dispositivos médicos, equipos radioeléctricos o seguridad de juguetes.

También cambia el calendario para el contenido sintético. Los proveedores tendrían hasta el 2 de noviembre de 2026 para cumplir con las reglas sobre marcado legible por máquina, es decir, mecanismos de marca de agua para audio, imagen, video o texto creados por IA con el fin de indicar su origen.

Este punto es relevante porque esas obligaciones estaban previstas originalmente para entrar en vigor este agosto. El ajuste responde al reclamo empresarial de contar con más tiempo y con lineamientos técnicos más claros antes de enfrentar obligaciones de cumplimiento que pueden ser complejas y costosas.

De acuerdo con The Verge, las propuestas aplazarían plazos inminentes para desarrolladores de sistemas de alto riesgo y para proveedores de contenido generado por IA. Sin embargo, el cambio todavía no está cerrado y no puede ser impuesto de forma unilateral por el Parlamento.

Qué implicaría la prohibición de los nudifiers

La formulación respaldada por los eurodiputados apunta a sistemas que utilicen IA para crear o manipular imágenes sexualmente explícitas o íntimas que se parezcan a una persona real identificable sin el consentimiento de esa persona. La redacción busca atacar una práctica que, en términos legales y sociales, se cruza con privacidad, integridad personal, explotación digital y violencia de género.

Por ahora, no se conocen todos los detalles operativos de esa prohibición. Sí existe una salvedad importante: no se aplicaría a sistemas de IA que impidan a sus usuarios crear este tipo de imágenes mediante medidas de seguridad eficaces. Ese matiz sugiere que Bruselas intenta separar los usos abusivos de aquellas herramientas que incorporen controles técnicos robustos.

El debate no es menor para la industria. En los últimos años, los modelos generativos han ampliado su capacidad para editar rostros, cuerpos y escenas con gran realismo. Eso ha hecho más difícil distinguir entre un montaje y una imagen auténtica, un problema que afecta tanto a plataformas sociales como a desarrolladores de modelos, aplicaciones móviles y proveedores de infraestructura.

La discusión europea también importa fuera del bloque. Las normas de la UE suelen convertirse en referencia internacional, sobre todo cuando tocan temas de seguridad, privacidad y responsabilidad tecnológica. Por eso, cualquier veto explícito a sistemas nudifier podría influir en otras jurisdicciones y en las políticas internas de empresas globales de IA.

Más flexibilidad para empresas, pero sin certeza final

Además de los cambios de calendario, los diputados se manifestaron a favor de dar mayor flexibilidad a los proveedores de servicios. El paquete permitiría tratar datos personales para detectar y corregir sesgos en sistemas de IA, aunque solo cuando sea estrictamente necesario. Esa apertura intenta resolver una tensión clásica del sector: mejorar modelos sin vulnerar normas de protección de datos.

También se busca reducir solapamientos regulatorios. Cuando un producto ya esté regulado por legislación sectorial de seguridad, las obligaciones derivadas de la Ley de IA podrían ser menos estrictas. El objetivo es evitar duplicidades para industrias que ya operan bajo marcos exigentes, como la de dispositivos médicos o ciertos bienes tecnológicos de consumo.

Según el análisis de Pinsent Masons, este paquete de simplificación forma parte del plan más amplio de la UE para reducir cargas administrativas y facilitar la implementación del reglamento. La meta política es rebajar ese peso al menos un 25% para 2029 y hasta un 35% para pequeñas y medianas empresas.

El mismo análisis señaló que el Consejo también propuso retrasar hasta el 2 de diciembre de 2027 la fecha límite para establecer “sandboxes” regulatorios de IA. Estos entornos controlados permitirían a proveedores probar sus sistemas bajo supervisión de autoridades nacionales y disminuir el riesgo de incumplimiento.

Aun así, el alivio regulatorio no equivale a certeza plena. Expertos citados por Pinsent Masons advirtieron que las compañías no deberían asumir que los cambios ya están garantizados. Si las negociaciones no concluyen a tiempo, seguiría vigente la fecha actual del 2 de agosto de 2026 para varias obligaciones.

Qué viene ahora en Bruselas

El voto del Parlamento no cierra el expediente. Lo que hace es fijar su posición formal para entrar en negociaciones con el Consejo Europeo, el órgano compuesto por ministros de los 27 Estados miembros. La Comisión Europea actuará en un rol facilitador dentro de la tríada, el formato habitual para acordar la versión definitiva de la ley.

Ese punto es central porque el Parlamento no puede modificar por sí solo la legislación europea. Aunque hoy exista apoyo político a los retrasos y al veto de los nudifiers, la redacción final aún debe pactarse entre las instituciones. Por eso persiste un período de incertidumbre para empresas tecnológicas, desarrolladores y proveedores de modelos generativos que operan en Europa.

El proceso llega, además, tras varios tropiezos. Las empresas ya se habían enfrentado a retrasos previos debido a que la UE no publicó a tiempo orientaciones clave y modificó algunos elementos de la ley en el camino. Esa secuencia alimentó la presión para introducir fechas más realistas y texto más claro.

También hay un componente político de fondo. La simplificación regulatoria se ha convertido en una prioridad europea, pero sin abandonar la promesa de controlar usos de IA considerados dañinos. La combinación de más tiempo para cumplir y nuevas prohibiciones específicas revela ese equilibrio: menos fricción administrativa para negocios, pero mayor dureza ante prácticas especialmente abusivas.

Por ahora, el mensaje para el mercado es dual. La UE no está desmontando su marco de IA, pero sí reconoce que la implementación original necesita ajustes. Y al mismo tiempo, está dispuesta a endurecer la respuesta contra herramientas que facilitan deepfakes íntimos no consentidos, un frente donde la presión social y política ya parece imposible de ignorar.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín