
Una suplantación con IA generativa y una videollamada falsa fueron parte de un intento sofisticado de estafa que encendió las alarmas en Polygon.
***
- Deepfakes imitan a ejecutivos de Polygon Ventures para engañar a fundadores de startups
- Se usó una cuenta de Telegram comprometida para iniciar los ataques
- Semanas atrás, ele cofundador de Manta Network reportó un caso similar
- Sandeep Nailwal advierte sobre no instalar software en llamadas inesperadas
El cofundador de Polygon, Sandeep Nailwal, advierte con urgencia a la comunidad Web3 sobre intento de estafa que involucró tecnología “deepfake“. El objetivo de los atacantes eran fundadores de startups relacionados con Polygon Ventures, quienes fueron manipulados mediante reuniones falsas en Zoom con rostros generados por inteligencia artificial.
La alerta fue publicada por Nailwal en sus redes sociales, donde describió de manera detallada cómo los estafadores utilizaron imágenes falsificadas de él mismo, del jefe de inversiones Shreyansh Singh y de una supuesta integrante más del equipo. Estos deepfakes se mostraban en videollamadas sin audio, argumentando problemas técnicos, mientras los atacantes guiaban a las víctimas a instalar software malicioso.
Así operó la estafa
Todo comenzó cuando los atacantes lograron acceso a la cuenta de Telegram de Shreyansh Singh, cabeza del equipo de inversiones en Polygon Ventures. Desde allí, contactaron a fundadores de proyectos que previamente habían estado en comunicación con Polygon, aparentando continuar conversaciones de inversión.
Una vez ganada la confianza, los estafadores organizaban una videollamada por Zoom que simulaba proceder de Polygon. Al ingresar, las víctimas encontraban una videollamada sin audio pero con imágenes de lo que parecían ser Nailwal, Singh y otra integrante del equipo.
Durante la llamada, se les solicitaba descargar e instalar un SDK—una supuesta herramienta de desarrollo—desde un enlace incluido en el chat. Sin saberlo, quienes accedían a esta petición comprometían sus sistemas mediante un script malicioso.
Nailwal hizo énfasis en que nadie debería instalar archivos ni programas a solicitud de terceros durante una llamada no solicitada. Además, recomendó utilizar dispositivos aparte exclusivamente para actividades relacionadas con criptomonedas como medida de seguridad adicional.
“Estos ataques se vuelven cada vez más sofisticados”, expresó Nailwal. “Por favor, cuídense allá afuera”.
El incidente pone en evidencia el creciente uso de tecnología deepfake como herramienta en ataques de ingeniería social. La capacidad de generar rostros y voces indistinguibles de los reales con IA está siendo explotada para manipular y vulnerar tanto a individuos como a organizaciones.
La modalidad descrita por Nailwal se asemeja a un caso reportado semanas atrás, donde justamente fue el cofundador de Manta Network, Kenny Li, quien informó un hecho bastante similar. Para este incidente, también se produjo una videollamada con figuras conocidas por el directivo, aunque con fallos en el audio, por lo que le pidieron instalar un archivo facilitado vía enlace para resolver los problemas.
En este último caso, Li alegó que posiblemente estos hackers estaban asociados con el Grupo Lazarus, organización delictiva vinculada al gobierno de Corea del Norte, responsables de ataques de alto perfil.
El blanco: proyectos en etapas tempranas
De cara a este modus operandi, paarece que la amenaza se orienta especialmente hacia fundadores de startups y proyectos en sus primeras etapas de desarrollo, un segmento altamente vulnerable dentro del ecosistema Web3. Estos actores suelen estar abiertos a propuestas de inversión, por lo que una comunicación proveniente de Polygon Ventures puede parecer legítima.
El uso de cuentas previamente comprometidas y la simulación de escenarios reales añade una capa de sofisticación que dificulta la detección del fraude. La confianza previa en las relaciones con Polygon se convierte, irónicamente, en el arma utilizada contra las víctimas.
Buenas prácticas para prevenir este tipo de ataques
Frente a estas amenazas, expertos en seguridad recomiendan:
-
Nunca instalar software durante una llamada inesperada, sin validación externa.
-
Verificar la identidad de los interlocutores por múltiples canales.
-
Mantener un dispositivo separado para transacciones cripto.
-
Estar atentos a señales sutiles como falta de audio o comportamiento robótico en videollamadas.
Polygon aún no ha emitido un comunicado oficial más allá de las declaraciones de Nailwal. Sin embargo, este caso resalta la necesidad urgente de desarrollar estrategias de defensa contra amenazas que ahora también involucran tecnologías emergentes como la IA generativa.
Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin
Imagen original de Unsplash
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados

Microsoft reduce 6,000 empleos: razones detrás del gran recorte

Twenty One Capital invierte USD $458,7 millones para sumar Bitcoin a sus reservas

Empresa británica invirtió cerca de USD $500 millones para adquirir más ETH: datos
