Por Canuto  

Un grupo de amigas en Minneapolis descubrió que un conocido usó fotos de sus redes para generar deepfakes pornográficos en el sitio DeepSwap. Tras el hallazgo, las mujeres enfrentaron vacíos legales, traumas psicológicos y una lucha por responsabilizar a plataformas que facilitan la creación de pornografía no consensuada con IA.
***

  • Más de 80 mujeres fueron identificadas en la colección del hombre que usó DeepSwap para crear imágenes sexuales no consensuadas.
  • DeepSwap cobra USD $19,99 mensuales y afirma almacenar datos temporalmente en servidores en Irlanda; su cumplimiento es cuestionado.
  • Legislación y respuesta: existe la ley federal Take It Down Act y un proyecto en Minnesota que propone multas de USD $500.000 por cada deepfake explícito no consensuado.

Descubrimiento y reacción inicial

En junio del año pasado Jessica Guistolise recibió un mensaje que cambió su vida. Mientras cenaba en Oregón, una conocida llamada Jenny la contactó para avisarle que su exmarido Ben guardaba fotos en su ordenador que se habían usado para crear pornografía deepfake.

Las capturas que Jenny tomó del equipo de Ben mostraban rostros de más de 80 mujeres, según relataron las afectadas a la prensa. CNBC comprobó las imágenes y encontró que los deepfakes se habían generado con un servicio llamado DeepSwap.

Guistolise dijo que las fotos incluían imágenes familiares: una foto de vacaciones y otra de la graduación universitaria de su ahijada tomadas de su página de Facebook. “No es algo que desearía para nadie”, afirmó la consultora tecnológica de Minneapolis.

Tras el hallazgo, Guistolise presentó una denuncia policial y obtuvo una orden de restricción. Sin embargo, ella y sus amigas pronto percibieron que la vía penal presentaba limitaciones.

Ben admitió ante CNBC haber creado los deepfakes y expresó sentirse culpable y avergonzado. Jenny describió las acciones de Ben como “horríficas, inexcusables e imperdonables” y subrayó la necesidad de leyes más fuertes.

Disponibilidad de las apps y el ecosistema ‘nudify’

Las apps de “nudify” surgieron con fuerza tras la explosión de la IA generativa desde finales de 2022. Servicios como DeepSwap permiten a usuarios sin conocimientos técnicos crear imágenes y videos sexualizados a partir de una sola foto.

DeepSwap aparece en tiendas de apps y en anuncios en redes sociales, según expertos consultados por CNBC. Su política indica que los usuarios tienen siete días para revisar contenido y que los datos se almacenan en servidores en Irlanda durante ese plazo.

Investigadores mencionados por CNBC encontraron que plataformas comerciales de nudify usan modelos de suscripción y enlaces de afiliados. DeepSwap cobra USD $19,99 al mes y ofrece créditos para generación de video y procesamiento más rápido.

El espacio incluye numerosas marcas: Undress, DeepNude, CrushAI y otras. Alexios Mantzarlis, investigador en Cornell Tech, descubrió más de 8.000 anuncios en la biblioteca de Meta para un servicio llamado CrushAI.

Los investigadores estiman que 85 servicios de nudify analizados reciben en conjunto cerca de 18,6 millones de visitas mensuales únicas, aunque esa cifra no contempla el intercambio en Telegram o Discord.

Impacto psicológico y social en las víctimas

Molly Kelley, entonces embarazada, contó que ver su rostro fusionado en imágenes pornográficas provocó un estrés tan intenso que afectó su salud. Su médico le advirtió sobre los efectos del cortisol y la ansiedad crónica durante el embarazo.

Las mujeres describieron sentimientos de paranoia, aislamiento y pérdida de confianza. Megan Hurley relató que unas vacaciones quedaron arruinadas y que desde entonces pidió a amigos que le alertaran si veían contenido que pudiera ser suyo.

Expertos en abuso sexual y derecho señalan que las víctimas sufren traumas profundos incluso cuando el material no se publica en internet. Ari Ezra Waldman testificó sobre pensamientos suicidas y el miedo permanente a la difusión pública.

Al menos cincuenta de las víctimas identificadas por Kelley permanecían sin notificar al cierre de la investigación local. Para localizar a otras mujeres, Kelley compró software de reconocimiento facial y organizó avisos entre su círculo.

La experiencia llevó al grupo a buscar apoyo político para cerrar los vacíos legales que dejaron desprotegidas a las afectadas.

Marco legal y respuestas públicas

En el plano federal, CNBC reportó que el presidente Donald Trump firmó la ley Take It Down Act en mayo; la norma prohíbe la publicación en línea de imágenes sexuales no consensuadas, incluidas las generadas por IA. El texto contempla multas penales y hasta dos años de prisión para quienes publiquen ese tipo de material.

No obstante, la ley federal no resuelve el problema central del caso de Minnesota, porque no hay evidencia de que los deepfakes hubieran sido distribuidos en internet. Esa laguna motivó que la senadora estatal Erin Maye Quade promoviera una iniciativa específica.

El proyecto de ley de Maye Quade propone multar a empresas que ofrezcan servicios de nudify con USD $500.000 por cada deepfake explícito no consensuado generado en Minnesota. La senadora reconoció la dificultad de aplicar sanciones a compañías con sede en el extranjero.

Maye Quade defendió que la creación del material, no solo su difusión, debe ser sancionada, y advirtió que una respuesta federal sería más eficaz frente a proveedores internacionales. Mientras tanto, Apple y Meta dijeron que revisan anuncios y eliminan apps que vulneren sus políticas.

DeepSwap, que figura en registros como MINDSPARK AI LIMITED con dirección en Dublín, ofreció información limitada y no respondió a múltiples solicitudes de comentario, según CNBC.

Historia y evolución de la pornografía por deepfake

Los deepfakes emergieron con fuerza en 2018, cuando videos falsos de figuras públicas se viralizaron. Desde entonces, la tecnología evolucionó y se popularizó entre usuarios sin habilidades técnicas.

MrDeepFakes fue uno de los grandes refugios de este contenido y llegó a alojar aproximadamente 43.000 videos sexualizados con casi 4.000 individuos, según un estudio citado por CNBC. Tras la identificación de operadores clave, el sitio cerró abruptamente en mayo.

Ante el cierre, comunidades migraron a plataformas alternativas como Discord, donde aún se discuten tutoriales y pedidos para generar deepfakes. Investigadores identificaron servidores públicos asociados a DeepSwap que facilitaban solicitudes de creación de material sexual sintético.

El fenómeno demuestra que la tecnología y su economía han madurado, aunque siga siendo una porción pequeña del mercado de IA generativa. Expertos estiman ingresos anuales conservadores del orden de USD $36.000.000 para servicios especializados en nudify.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín