Por Angel Di Matteo   𝕏 @shadowargel

X anunció que suspenderá por 90 días del programa de reparto de ingresos a los creadores que publiquen videos generados por IA sobre conflictos armados sin revelar que son sintéticos, una medida que busca frenar contenido engañoso en tiempos de guerra sin resolver el resto del problema de la desinformación impulsada por incentivos económicos.

***

  • X aplicará una suspensión de 90 días a creadores que publiquen videos de IA de “conflicto armado” sin divulgación, y habrá expulsión permanente si reinciden.
  • La plataforma dice que detectará estos posts con herramientas de identificación de IA generativa y con su sistema colaborativo Community Notes.
  • El cambio toca el incentivo financiero del programa, aunque deja fuera otros usos de IA para desinformación política o promociones engañosas.

 

X, la red social propiedad de Elon Musk, informó que tomará medidas contra los creadores que publiquen videos generados por inteligencia artificial sobre conflictos armados sin indicar que el material fue producido con IA. La plataforma anunció que estos casos implicarán la expulsión temporal del programa de participación en ingresos para creadores. El objetivo declarado es evitar que los usuarios sean engañados con contenido sintético durante escenarios de guerra.

La decisión se da en un momento en que el video y la imagen generativa se han vuelto lo bastante accesibles como para imitar escenas de alto impacto con pocos recursos. En redes sociales, ese tipo de piezas puede difundirse con rapidez y sin contexto. En el caso de un conflicto armado, una publicación engañosa puede distorsionar percepciones públicas y aumentar la confusión informativa, detalla TechCrunch.

La medida no equivale a una prohibición total del contenido generado por IA. El foco está en la falta de divulgación cuando se presenta como si fuera material “auténtico en el terreno”. X plantea el castigo como una restricción de monetización, apuntando a los incentivos que pueden empujar a ciertos creadores a priorizar alcance sobre veracidad.

El anuncio lo hizo el martes el jefe de producto de X, Nikita Bier. De acuerdo con lo reportado por TechCrunch, Bier dijo que quienes usen IA para engañar de esta forma serán removidos del programa de reparto de ingresos durante tres meses, es decir, unos 90 días.

La regla: 90 días sin ingresos y expulsión definitiva si hay reincidencia

Según la política comunicada, cualquier usuario que publique videos generados por IA de un “conflicto armado” sin añadir una divulgación de que fueron hechos con IA recibirá una suspensión del programa de participación en ingresos por 90 días. La sanción está dirigida a los creadores que se benefician económicamente del rendimiento de sus publicaciones. No se presentó como una simple advertencia, sino como una acción inmediata ligada a la monetización.

X también estableció un escalamiento en caso de reincidencia. Si un creador continúa publicando contenido engañoso de IA después de levantarse la suspensión, la plataforma lo suspenderá de manera permanente del programa. Es decir, el castigo no se limita al primer evento y busca desincentivar una conducta repetida.

Bier enmarcó la decisión como un asunto de acceso a información auténtica durante la guerra. “Durante tiempos de guerra, es crucial que las personas tengan acceso a información auténtica en el terreno. Con las tecnologías de IA de hoy, es trivial crear contenido que pueda engañar a las personas”, escribió. Luego añadió la regla concreta: “A partir de ahora, los usuarios que publiquen videos generados por IA de un conflicto armado, sin agregar una divulgación de que fue hecho con IA, serán suspendidos de la participación en ingresos de creadores por 90 días”.

En la práctica, la nueva política intenta separar dos realidades que hoy se mezclan en redes. Una cosa es publicar material creativo o satírico con IA y etiquetarlo. Otra es difundirlo como si fuera evidencia documental, especialmente si incluye escenas que apelan al shock, la empatía o la indignación.

Cómo dice X que detectará contenido engañoso: herramientas de IA y Community Notes

X aseguró que identificará publicaciones engañosas mediante una combinación de herramientas. Por un lado, utilizará sistemas diseñados para detectar contenido generado por IA. Por otro, se apoyará en su esquema de verificación colaborativa, Community Notes, que agrega contexto y correcciones cuando los usuarios participantes lo consideran necesario.

Este enfoque mezcla automatización y señalización humana. La detección automática suele buscar patrones, metadatos o inconsistencias visuales asociadas a modelos generativos. Community Notes, en cambio, depende de la capacidad de la comunidad para observar, contrastar y aportar fuentes o explicaciones que reduzcan confusión, aunque la plataforma no detalló umbrales, tiempos ni procedimientos para activar la sanción.

En términos de gobernanza de contenido, el anuncio sugiere que la plataforma no pretende basarse en una sola capa de control. Aun así, la efectividad depende de la escala del problema y de la rapidez de la viralización. En conflictos armados, una pieza falsa puede circular ampliamente antes de que llegue cualquier etiqueta, nota o contexto adicional.

Para el lector menos familiarizado, Community Notes es un sistema donde usuarios añaden notas a publicaciones para contextualizar afirmaciones. El modelo busca consenso entre participantes con distintos puntos de vista antes de hacer visible la nota. X ahora lo presenta como parte de su estrategia para enfrentar videos generados por IA que se difunden como si fueran reales.

El programa de reparto de ingresos y el incentivo al contenido sensacionalista

El programa de participación en ingresos para creadores de X permite que ciertos usuarios generen ingresos publicando en la plataforma. La idea general es compartir parte de los ingresos publicitarios cuando sus publicaciones alcanzan popularidad. Con esto, X busca aumentar la cantidad de contenido “atractivo” y retener audiencias dentro del ecosistema de la red social.

Sin embargo, el mismo diseño ha recibido críticas por los incentivos que crea. Críticos del programa sostienen que empuja a publicar contenido sensacionalista, como clickbait o posts diseñados para provocar indignación. En un entorno donde la indignación suele traducirse en interacciones, las recompensas económicas pueden acelerar dinámicas de desinformación o exageración.

También se ha cuestionado la moderación y el control de contenido dentro del esquema. El artículo señala que algunos han criticado controles laxos y el requisito de que los creadores sean suscriptores pagos de X para participar. Ese punto agrega fricción de entrada, pero no garantiza calidad informativa, y no elimina la presión por producir piezas con alto rendimiento.

En ese contexto, la nueva sanción funciona como una palanca económica. En vez de enfocarse solo en borrar publicaciones, X apunta a cortar la recompensa monetaria cuando se trata de videos de IA sobre “conflictos armados” sin la debida aclaratoria. La apuesta es clara: si el incentivo desaparece por 90 días, parte del comportamiento debería disminuir.

Alcance limitado: fuera de la guerra, la desinformación con IA seguirá

Aunque la medida marca un giro para el caso específico de conflictos armados, el alcance es limitado. El reporte advierte que, fuera de escenarios de guerra, los medios generados por IA se usan con frecuencia para desinformación política. También se emplean para promover productos engañosos dentro de la economía de influencers.

Ese tipo de contenido, según lo descrito, seguirá permitido bajo la nueva política. La prohibición anunciada se centra en la recompensa financiera por publicaciones engañosas de IA asociadas a guerra, no en un marco general para toda la desinformación generativa. Esto deja un espacio amplio para campañas que no entren en la categoría de “conflicto armado” o que se muevan en zonas grises.

El texto también subraya que, dado lo fácil que es para la IA crear fotos y videos engañosos, la decisión de X de frenar la recompensa financiera es “solo una solución limitada”. La facilidad técnica reduce el costo de producir desinformación, y por eso los controles pueden convertirse en una carrera constante entre generadores y detectores.

En suma, X plantea una regla concreta con castigos definidos y apoyos de detección y verificación colaborativa. La plataforma busca proteger el acceso a información auténtica en tiempos de guerra, pero el anuncio también expone un dilema mayor: cuando la viralidad y la monetización premian lo impactante, la línea entre contenido atractivo y contenido dañino puede volverse demasiado delgada.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín