Por Canuto  

La guerra entre Estados Unidos e Irán ya no se libra solo con armas y operaciones militares. También se disputa en redes sociales, donde una avalancha de imágenes generadas por IA, clips manipulados y acusaciones cruzadas vuelve cada vez más difícil distinguir lo real de lo falso.
***

  • Donald Trump acusó a Irán de usar IA como arma de desinformación, aunque varias de sus afirmaciones fueron cuestionadas.
  • Investigadores alertan que X sigue inundada de contenido bélico generado con IA, pese a nuevas restricciones de la plataforma.
  • La Casa Blanca recibió críticas por compartir videos que mezclan escenas reales del conflicto con clips de videojuegos y películas.

 

La inteligencia artificial está alterando de forma radical la forma en que se interpreta el conflicto entre Estados Unidos e Irán. A medida que avanzan las operaciones militares y crecen las tensiones regionales, también aumenta una ola de desinformación compuesta por deepfakes, videos manipulados y material imposible de verificar con rapidez.

El problema ya no se limita a detectar una falsificación. Ahora también incluye el fenómeno inverso: imágenes reales que son descartadas como falsas por conveniencia política, sesgo ideológico o simple confusión. En este entorno, la velocidad de las plataformas digitales supera con facilidad la capacidad de verificación periodística.

Según reportó Cryptopolitan, el volumen de contenido generado por IA en torno a la campaña militar de Estados Unidos contra Irán alcanzó proporciones sin precedentes. La consecuencia inmediata es una línea cada vez más borrosa entre realidad, propaganda y ficción digital.

Trump acusa a Irán mientras crecen las dudas sobre lo que circula en línea

El domingo 15 de marzo de 2026, el presidente Donald Trump declaró ante periodistas a bordo del Air Force One que Irán estaba usando la inteligencia artificial como un “arma de desinformación” para distorsionar la batalla. En sus palabras, “la IA puede ser muy peligrosa”, y aseguró que el régimen iraní había recurrido a esa tecnología para engañar al público.

Trump afirmó que Irán utilizó IA para falsificar un supuesto ataque exitoso contra el portaaviones USS Abraham Lincoln. También sostuvo que las imágenes que mostraban a 250.000 iraníes reunidos en un mitin para el nuevo líder supremo Mojtaba Khamenei eran “totalmente generadas por IA”.

Sin embargo, varias de esas declaraciones fueron cuestionadas casi de inmediato. Reuters verificó, mediante imágenes tomadas en el puerto iraquí de Basora, que barcos iraníes cargados de explosivos sí atacaron petroleros en la zona. Esa constatación contradijo la idea de que todo el material visual relacionado con esos hechos fuese fabricado digitalmente.

Además, aunque sí han existido dudas sobre piezas específicas que circularon en redes, medios de comunicación publicaron fotos verificadas de concentraciones progubernamentales en Teherán. Trump no respondió de forma directa a esas imágenes autentificadas, lo que dejó abierta la discusión sobre qué parte del flujo informativo era falsa y cuál no.

El “dividendo del mentiroso” complica aún más la verificación

En contextos de guerra, la expresión “dividendo del mentiroso” describe una dinámica cada vez más frecuente. Cuando el público sabe que existen deepfakes convincentes, actores políticos o ideológicos pueden aprovechar esa desconfianza para desacreditar incluso pruebas genuinas.

Eso ocurrió con The New York Times, que fue acusado por una organización llamada Instituto de Investigación y Pronósticos Empíricos de distribuir imágenes de multitudes digitalmente alteradas desde Teherán. La acusación se apoyó en interpretaciones visuales que, según los críticos, sugerían manipulación mediante IA.

El diario rechazó con fuerza esa lectura. Su portavoz, Nicole Taylor, sostuvo que la imagen era auténtica y afirmó que la crítica estaba “fundamentalmente defectuosa y deshonestamente basada en una versión re-publicada que malinterpreta la compresión estándar de imágenes”.

El periodista Mehdi Hasan resumió el dilema en una respuesta directa a esa controversia. Señaló que ya no solo existe el problema de las imágenes falsas creadas con IA que engañan al público, sino también el de actores de mala fe que acusan falsamente a imágenes reales de haber sido generadas por IA.

La distorsión informativa no se limitó a Irán. Dos videos del primer ministro israelí Benjamin Netanyahu también fueron catalogados como “100% deepfake” por Grok, el chatbot de IA integrado en X. Times of India informó que el segundo video, presentado como una prueba de que Netanyahu seguía con vida en una cafetería, reactivó una intensa especulación en línea después de esa etiqueta del sistema.

X endurece reglas, pero investigadores dicen que la plataforma sigue desbordada

En respuesta al caos, X anunció que prohibiría durante 90 días a los creadores inscritos en su programa de pagos si publicaban videos de guerra generados con IA sin etiquetarlos claramente. La plataforma también advirtió que los reincidentes podrían enfrentar la eliminación permanente.

La medida buscó mostrar una reacción más firme frente al uso engañoso de material sintético en medio del conflicto. No obstante, especialistas en monitoreo digital consideran que el problema real está lejos de resolverse, tanto por la escala del contenido como por los incentivos económicos internos de la propia red.

Joe Bodnar, del Instituto para el Diálogo Estratégico, dijo a AFP que “los feeds que monitoreo todavía están inundados de contenido generado por IA sobre la guerra”. Su observación sugiere que la aplicación práctica de las nuevas reglas es todavía débil frente al volumen de publicaciones virales.

Los expertos también subrayan un punto delicado. El modelo de X, que paga a titulares de cuentas premium según el nivel de interacción que generan sus publicaciones, crea un incentivo financiero directo para producir contenido impactante, exagerado o engañoso. En una guerra informativa, ese diseño puede premiar el sensacionalismo por encima de la precisión.

La Casa Blanca recibe críticas por convertir la guerra en estética de redes

La administración Trump también ha sido cuestionada por su propia estrategia comunicacional. La Casa Blanca publicó varios videos en X y TikTok que mezclaban imágenes militares reales del conflicto con escenas tomadas de películas y videojuegos, una táctica que sus críticos describieron como una “guerra de memes”.

Uno de esos videos, de 60 segundos, comienza con una escena de “Call of Duty: Modern Warfare II” en la que un jugador desbloquea una “bomba guiada masiva”. Luego, el material cambia a imágenes reales de ataques estadounidenses sobre Irán, fundiendo entretenimiento digital y operaciones bélicas en una sola narrativa audiovisual.

Algunos de esos clips también parecían mostrar ataques exitosos de Estados Unidos contra aeronaves iraníes. Más tarde, parte del público sostuvo que los objetivos alcanzados podrían haber sido señuelos, es decir, imágenes pintadas de jets diseñadas para engañar a las fuerzas estadounidenses.

Legisladores y veteranos criticaron con dureza esa estrategia. A su juicio, trivializa el costo humano del conflicto y transforma una guerra real en contenido diseñado para la lógica de redes sociales, donde importa más la viralidad que el contexto.

El trasfondo es más amplio que una sola administración o una sola plataforma. Anya Schiffrin, de la Universidad de Columbia, advirtió que la propaganda impulsada por IA es global, mientras que la regulación sigue siendo local. Eso deja al público, en gran medida, con la carga de intentar descubrir por sí mismo qué es verdadero y qué fue inventado por una máquina.

Para los lectores nuevos en este tema, el punto central es que la IA no solo facilita la creación de falsificaciones convincentes. También altera la confianza básica sobre fotos, videos y declaraciones en tiempo real. En escenarios de guerra, donde las decisiones se toman a velocidad de máquina y bajo presión extrema, esa erosión de confianza puede tener consecuencias políticas y humanas profundas.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín