Una investigación reveló que redes de fraude en Camboya y otros puntos del Sudeste Asiático estarían reclutando jóvenes como “modelos de IA” para realizar videollamadas deepfake y reforzar estafas románticas y de inversión en criptomonedas, una señal de cómo la inteligencia artificial está elevando la sofisticación de estas operaciones criminales.
***
- Canales de Telegram muestran ofertas para “modelos de IA” y “caras reales” en ciudades vinculadas a centros de estafa.
- Los roles incluyen hasta 100 o 150 videollamadas por día, uso de filtros realistas y referencias a clientes, criptomonedas y oro.
- Investigadores alertan sobre salarios altos, retención de pasaportes y posibles nexos con trata de personas y fraude digital.
Las grandes redes de estafa en línea del Sudeste Asiático parecen haber encontrado una nueva pieza para su maquinaria de fraude: los llamados “modelos de IA”. Se trata de personas reclutadas para aparecer en videollamadas, mientras herramientas de intercambio facial y filtros deepfake refuerzan la ilusión de autenticidad frente a potenciales víctimas.
El fenómeno añade una nueva capa a los conocidos esquemas de “engorde de cerdo”, una modalidad de fraude en la que los estafadores cultivan una relación emocional con la víctima durante semanas o meses antes de inducirla a transferir fondos a supuestas inversiones, muchas veces en criptomonedas. En este contexto, una videollamada convincente puede ser decisiva para ganar confianza.
Según reportó Models Are Applying to Be the Face of AI Scams | WIRED, docenas de videos de reclutamiento y anuncios de empleo publicados en Telegram muestran a personas de Uzbekistán, Turquía, Rusia, Ucrania, Bielorrusia y varios países asiáticos postulándose para trabajar como “AI face models” o modelos de “cara real” en Camboya y otros puntos de la región.
Uno de los casos descritos es el de Angel, una mujer uzbeka de 24 años que, en un video estilo selfie para reclutadores, destacó que habla inglés con fluidez, buen chino, además de ruso y turco. Dijo que acababa de llegar a Sihanoukville, Camboya, y que estaba lista para empezar de inmediato. Su solicitud incluía altura, peso y la afirmación de que ya acumulaba “1 año como modelo de IA”.
Un nuevo engranaje para fraudes románticos y de inversión
Los centros de estafa del Sudeste Asiático ya eran conocidos por su escala industrial y por operar esquemas románticos y de inversión con criptomonedas. En muchos casos, estos complejos han sido vinculados a redes criminales que retienen a víctimas de trata y las obligan a trabajar en fraudes digitales.
Ahora, investigadores creen que esas mismas organizaciones no solo engañan o coaccionan a personas para sumarlas a las operaciones, sino que también están atrayendo postulantes dispuestos a desempeñar una tarea específica: ser el rostro visible del engaño. Hieu Minh Ngo, investigador de delitos cibernéticos de la organización vietnamita ChongLuaDao, explicó que en el último año estas redes también han comenzado a contratar personas para hacer modelado de IA.
Según Ngo, a los reclutados se les proporciona software para cambiar su rostro con IA y así participar en estafas románticas. El investigador, un ex pirata informático criminal que hoy rastrea la actividad de complejos de estafa y apoya a víctimas, identificó alrededor de dos docenas de canales de Telegram que incluyen vacantes de este tipo en la región.
Humanity Research Consultancy, una organización enfocada en la lucha contra la trata de personas, también rastreó postulaciones para trabajos de “modelo” y “modelo de IA” en ciudades conocidas por albergar complejos de fraude. Entre esos materiales figura la solicitud de Angel.
La lógica de estas contrataciones parece clara. En una estafa romántica o de inversión, los delincuentes suelen operar perfiles falsos con imágenes robadas de celebridades o personas atractivas. Sin embargo, cuando la víctima pide una videollamada para confirmar que la persona existe, los estafadores necesitan sostener la ficción en tiempo real. Ahí entran los filtros, el intercambio facial y las llamadas deepfake.
La publicación señala que algunos centros de estafa del Sudeste Asiático ya tienen “salas de IA” dedicadas a realizar estas videollamadas. En paralelo, varias personas pueden manejar una misma cuenta fraudulenta por mensajes, mientras un modelo aparece en cámara solo cuando es necesario consolidar la credibilidad del personaje.
Ofertas opacas, horarios extremos y señales de alerta
Los anuncios revisados describen condiciones laborales intensas. Muchas publicaciones hablan de jornadas largas, muy pocos días libres y exigencias reiteradas de llamadas de voz y video. En varios casos, los avisos son publicados por administradores de canales sin datos de contacto claros ni detalles sobre la empresa contratante.
Una publicación para un supuesto contrato de seis meses afirma que la persona deberá enviar fotos todos los días, hacer llamadas de video y voz, además de grabar mensajes de audio y video. El mismo anuncio menciona “aproximadamente 100 videollamadas por día”. Otras ofertas elevan la cifra a 150 posibles llamadas diarias.
Otro aviso indica que “se pueden usar filtros, pero asegúrese de que la imagen sea realista”. También permite videos en vivo y prohíbe pelucas. Un anuncio adicional fija el horario entre las 10 p.m. y las 10 a.m. en Camboya y expresa preferencia por personas con “acento occidental”.
Una de las señales más delicadas es la retención de documentos. Un anuncio para modelos señala que “la empresa retendrá su pasaporte para la gestión de visado y permiso de trabajo”. La confiscación de pasaportes es una práctica ampliamente documentada en contextos de explotación laboral y trata.
La mayoría de los postulantes observados por la investigación eran mujeres jóvenes de poco más de 20 años, aunque también había hombres. Se les pedía enviar un video corto de presentación, texto con su experiencia y expectativas, además de fotografías. En algunos casos, debían incluir estado civil y situación de “vacunación”.
Algunas declaraciones de los postulantes resultan especialmente reveladoras. Una persona afirmó haber trabajado más de tres años con empresas chinas en proyectos relacionados con mercado de valores, criptomonedas e historias de amor. Otra dijo que era buena manejando clientes y persuadiéndolos para invertir mediante sus propias técnicas, incluso discutiendo cómo el comercio de oro los beneficiaría.
Salarios altos, ambigüedad sobre el consentimiento y posibles abusos
De acuerdo con Humanity Research Consultancy, algunos aspirantes a estos puestos pedían salarios de hasta USD $7.000 por mes. También hacían solicitudes concretas sobre sus condiciones laborales, como disponer de una habitación propia, poder salir del complejo, regresar a casa en su día libre o tener una lavadora personal.
Ese detalle sugiere que no todos llegan a estas operaciones exactamente bajo las mismas circunstancias. Algunas personas podrían estar siendo reclutadas para participar de manera más voluntaria que otras víctimas atrapadas en complejos de estafa. Aun así, ese margen de libertad no elimina los riesgos.
Ling Li, cofundadora del colectivo EOS, una organización sin fines de lucro que trabaja con víctimas de la industria de estafas, dijo que incluso modelos reclutados para estos roles pueden sufrir maltratos por parte de sus jefes. Citó el testimonio de una víctima europea que vio a algunos modelos italianos en su complejo, aunque no pudo determinar si estaban allí voluntariamente, y aseguró que fueron golpeados frente a él. También habló de acoso sexual.
La opacidad complica cualquier intento de verificación. Los videos de postulación no incluyen nombres completos ni datos de contacto, por lo que no fue posible localizar a quienes aparecían solicitando estos trabajos. Eso deja abiertas preguntas sobre cuántos ingresan sabiendo exactamente para qué serán usados y cuántos terminan atrapados en redes más violentas de lo que imaginaron.
Telegram, lenguaje de fraude y el papel de la IA
Telegram aparece como una infraestructura clave para la difusión de estas ofertas. La investigación compartió con la plataforma una lista de unas dos docenas de canales de trabajo y reclutamiento que habían anunciado modelos de IA junto con otros roles en meses recientes. La empresa no parecía haber eliminado ninguno de esos canales al momento de la revisión.
Un portavoz de Telegram respondió que sus políticas no permiten actividades relacionadas con estafas y que el contenido que fomenta o facilita fraudes está explícitamente prohibido por sus términos de servicio. También señaló que, en casos como este, puede haber razones legítimas para que alguien ofrezca su imagen, por lo que el contenido debe evaluarse caso por caso.
Sin embargo, Ngo considera que la mayoría de estos anuncios presenta múltiples banderas rojas, incluso cuando no mencionan de forma explícita la palabra “estafa”. Para él, la primera pregunta es por qué alguien necesitaría un “modelo de IA”. A eso se suman ubicaciones en ciudades conocidas por alojar complejos de fraude, promesas de altos salarios para la región y frecuentes requisitos de idioma chino.
El lenguaje también delata el contexto. Investigadores y la revisión de los mensajes detectaron referencias constantes a “clientes”, el término que usan muchas operaciones de estafa para evitar hablar de víctimas. A la vez, aparecen menciones reiteradas a inversiones en criptomonedas y comercio de oro.
Un postulante que aseguró haber trabajado durante 18 meses como modelo de IA y modelo de “cara real” explicó que su tarea previa consistía en convencer personas para que invirtieran. Dijo que sabía comunicarse bien con un cliente, hacer que confiara, enviar una buena imagen y hacerlo reír. En publicaciones todavía más explícitas, un “mercado laboral” fue descrito directamente como “estafa de amor”, mientras otra experiencia laboral fue resumida como “3 años como servicio al cliente (asesino) de plataforma de estafas criptográficas”.
Cuando la videollamada se convierte en prueba de confianza
El caso relatado por Frank McKenna ayuda a entender la función exacta de estos modelos. Después de que la madre de McKenna empezara a recibir mensajes de texto fraudulentos sobre inversiones el año pasado, él decidió responder para observar cómo operaban los remitentes. McKenna es estratega jefe de la firma de software antifraude Point Predictive y ha seguido de cerca el fenómeno de los modelos de IA.
Con el fin de entender mejor la mecánica del engaño, organizó una videollamada entre los estafadores y su madre. Según relató, el único propósito de esa llamada era demostrar que se trataba de una persona real y así ganar confianza. Durante la conversación, la joven en cámara parecía usar un filtro de IA en el rostro.
McKenna dijo que el efecto se veía algo defectuoso y que había otras personas en la sala, lo que generaba eco. Más adelante, tuvieron otra breve llamada con otro modelo de IA. Aproximadamente un mes después, encontró lo que parecía ser el video de reclutamiento del mismo modelo publicado en línea, donde decía estar buscando un nuevo contrato porque el anterior había expirado.
Para McKenna, ese hallazgo reveló un pequeño ecosistema de modelos que parecen desplazarse de un lugar a otro, de manera aparentemente voluntaria, obteniendo ingresos importantes. Su impresión es que probablemente pasan el día en salas de video realizando llamadas con distintas víctimas, como parte de una operación altamente especializada.
El cuadro general muestra cómo la IA no solo abarata la manipulación digital, sino que también profesionaliza una fase crítica del fraude: la validación visual. En un entorno donde las estafas con criptomonedas siguen combinando presión emocional, falsas oportunidades de inversión y plataformas de mensajería, la aparición de estos “rostros” contratados eleva el reto para usuarios, investigadores y plataformas tecnológicas.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Criptomonedas
xAI de Musk ficha a banqueros y expertos en crédito para convertir a Grok en un genio de las finanzas
Análisis de mercado
River (RIVER) cae 4% en medio de corrección técnica
Criptomonedas
EE. UU., Reino Unido y Canadá lanzan operación contra phishing de aprobación cripto
Criptomonedas