Por Canuto  

YouTube anunció la expansión de su tecnología de detección de deepfakes generados con IA para incluir a un grupo piloto de funcionarios gubernamentales, candidatos políticos y periodistas, en un movimiento que busca contener la suplantación digital sin comprometer la libre expresión en la plataforma.

***

  • La nueva fase del piloto permitirá a políticos, funcionarios y periodistas identificar videos con su semejanza generada por IA y pedir su eliminación.
  • YouTube aseguró que no habrá bajas automáticas: cada caso será revisado bajo sus políticas de privacidad, con excepciones para parodia, sátira y crítica política.
  • La empresa dijo que ya hay cerca de 4 millones de creadores dentro del Programa de Socios con acceso a esta tecnología, aunque el volumen de solicitudes de remoción ha sido muy bajo.

 


YouTube está ampliando su herramienta de detección de semejanzas generadas con inteligencia artificial (IA) para un nuevo grupo piloto compuesto por funcionarios del gobierno, candidatos políticos y periodistas. La medida busca responder a un riesgo que se ha vuelto cada vez más visible en el ecosistema digital: el uso de deepfakes que atribuyen a figuras públicas palabras o acciones que nunca ocurrieron.

La función permite detectar contenido no autorizado creado con IA que imita el rostro de una persona. Si el participante considera que ese material vulnera las políticas de la plataforma, puede solicitar su eliminación. El anuncio llega en un momento de creciente preocupación por la desinformación visual y sonora, especialmente en contextos cívicos y electorales.

Hasta ahora, esta tecnología ya estaba disponible para millones de creadores dentro del Programa de Socios de YouTube. La empresa indicó que cerca de 4 millones de creadores podían utilizarla tras una expansión realizada el año pasado, luego de pruebas anteriores con actores, atletas y otros perfiles de alto reconocimiento, según reportaron este martes TechCrunch y otros medios.

La iniciativa se parece en parte al sistema Content ID, la herramienta de la plataforma diseñada para identificar material protegido por derechos de autor en videos subidos por usuarios. En este caso, en lugar de buscar canciones, clips o activos audiovisuales registrados, el sistema se enfoca en rostros simulados creados con herramientas de IA.

Un nuevo piloto enfocado en el espacio cívico

Según explicó Leslie Miller, vicepresidenta de Asuntos Gubernamentales y Política Pública de YouTube, esta expansión está ligada a la necesidad de proteger la integridad de la conversación pública. La ejecutiva señaló que los riesgos de suplantación mediante IA son particularmente altos para quienes participan en el espacio cívico.

De acuerdo con la compañía, los participantes del piloto deberán verificar primero su identidad. Para ello tendrán que subir una selfie o video de sí mismos, además de un documento de identidad gubernamental. Después podrán crear un perfil, revisar las coincidencias detectadas por el sistema y, si lo consideran necesario, pedir que el contenido sea retirado.

YouTube no reveló qué políticos, funcionarios o periodistas formarán parte de esta fase inicial. En las sesiones informativas previas al anuncio, la empresa declinó comentar nombres concretos y tampoco confirmó si determinadas figuras de alto perfil estaban dentro del grupo. Aun así, sus voceros afirmaron que la intención es acelerar el despliegue con el tiempo y abrir la tecnología a un grupo más amplio.

Amjad Hanif, vicepresidente de Productos para Creadores de YouTube, dijo que la empresa siempre consideró que esta tecnología debía ir más allá de los creadores. Según su explicación, el nuevo piloto servirá también para aprender cómo periodistas y figuras del ámbito gubernamental usan esta protección en línea, especialmente a medida que se desarrollen nuevos ciclos electorales.

Detección sí, eliminación automática no

Uno de los puntos centrales del anuncio es que la detección de coincidencias no implicará una remoción automática. YouTube sostuvo que cada solicitud será evaluada de forma individual bajo sus directrices de privacidad, con el objetivo de no sofocar expresiones legítimas como la parodia, la sátira o la crítica política.

Miller remarcó que la plataforma tiene una larga historia de protección de la libre expresión. Por ello, un video de un líder mundial que sea claramente una parodia podría permanecer en línea, incluso si la tecnología detecta deepfake. La empresa insiste en que el balance entre seguridad e integridad cívica, por un lado, y libertad de expresión, por el otro, es parte esencial del modelo que intenta construir.

Ese matiz es importante porque los deepfakes no siempre se producen con fines maliciosos. Algunas piezas pueden ser humorísticas, satíricas o incluso promocionales. Hanif aseguró que, entre celebridades y creadores que ya utilizan la herramienta, el volumen de solicitudes de eliminación ha sido “realmente, realmente bajo”, ya que la mayoría del contenido detectado termina siendo benigno o incluso complementario para su actividad general.

Sin embargo, la compañía reconoció implícitamente que la situación puede ser distinta en el caso de políticos, funcionarios públicos y periodistas. En esos sectores, un video manipulado puede afectar reputaciones, alterar narrativas públicas o amplificar campañas de desinformación con impacto social mucho mayor.

Etiquetas, verificación y posibles funciones futuras

YouTube indicó que los videos creados con IA seguirán siendo etiquetados, aunque admitió que la ubicación de esas etiquetas no es uniforme. En algunos casos aparecen en la descripción del video, mientras que en materiales vinculados a temas que la plataforma considera más sensibles, el aviso se coloca de forma más visible al frente de la pieza.

Hanif explicó que no todo contenido generado con IA exige el mismo nivel de advertencia. Puso como ejemplo una caricatura realizada con IA, donde la distinción tecnológica puede no ser material para la comprensión de la obra. Según el ejecutivo, la visibilidad de la etiqueta depende del juicio editorial y del nivel de sensibilidad del tema tratado.

La empresa también adelantó que estudia nuevas capacidades para esta tecnología. Entre ellas figura la posibilidad de impedir la carga de contenido infractor antes de su publicación. Otra opción en evaluación es permitir que las personas afectadas moneticen ciertos videos detectados, en una lógica similar a la que hoy opera con Content ID.

Además, YouTube planea llevar esta tecnología a otras áreas de detección, incluidas voces reconocibles y otros tipos de propiedad intelectual, como personajes populares. Ese punto es relevante porque la clonación de voz con IA se ha vuelto casi tan accesible como la manipulación visual, ampliando el campo potencial de abuso.

Contexto regulatorio y límites del sistema

La expansión del piloto también se produce en paralelo a esfuerzos regulatorios más amplios en Estados Unidos. YouTube dijo que respalda el Acta NO FAKES en Washington D.C., una propuesta que buscaría regular el uso de IA para crear recreaciones no autorizadas de la voz y la semejanza visual de una persona.

Este respaldo revela que la plataforma no está abordando el problema solo desde la moderación interna. También intenta influir en el marco legal que definirá qué usos de la IA generativa resultan aceptables, cuáles requieren consentimiento y en qué casos debe intervenir la ley para proteger a individuos frente a imitaciones no autorizadas.

Pese a la expansión anunciada, YouTube dejó claro que esta función no está pensada, al menos por ahora, para toda la población. Hanif sugirió que incluir a todas las personas del mundo “probablemente no” forma parte de la hoja de ruta inmediata. En consecuencia, el acceso sigue concentrado en figuras públicas, celebridades, creadores y personas con alta exposición mediática.

Eso no significa que el resto de los usuarios quede sin recursos. La plataforma mantiene procesos de queja para solicitar la eliminación de deepfakes de IA. Pero el sistema proactivo de detección de semejanzas seguirá reservado, por el momento, a perfiles considerados de mayor relevancia pública o mayor riesgo de suplantación.

El anuncio encaja en un debate más amplio sobre el papel de las grandes plataformas ante la expansión del contenido sintético. En los últimos meses, YouTube también ha endurecido acciones contra algunos canales de baja calidad creados con IA bajo sus políticas contra el spam, así como frente a canales que publican falsos trailers de películas generados artificialmente.

Al mismo tiempo, la empresa continúa promoviendo herramientas de IA para creadores dentro de su propio ecosistema. Esa doble dinámica, fomentar la adopción de IA mientras intenta contener sus usos engañosos, muestra el delicado equilibrio que las plataformas tecnológicas enfrentan en esta etapa del mercado digital. En este caso, la protección de periodistas, funcionarios y candidatos aparece como un nuevo frente en esa disputa por la autenticidad en línea.


Este artículo fue escrito por un redactor de contenido de IA

Imagen de Unsplash

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín