YouTube pondrá a disposición de todos los creadores mayores de 18 años una herramienta para detectar si su rostro fue copiado y usado en videos generados con IA, en un intento por contener el avance de los deepfakes y facilitar solicitudes de eliminación de contenido no autorizado.
***
- La función se expandirá en las próximas semanas a todos los creadores elegibles de 18 años o más.
- El sistema permite detectar videos que imiten el rostro de una persona y pedir su retiro desde YouTube Studio.
- La herramienta no detecta por sí sola imitaciones basadas únicamente en la voz, aunque sí pregunta por ese posible uso al revisar casos.
La expansión de los videos generados con inteligencia artificial está elevando un problema cada vez más difícil de contener: la suplantación visual de personas reales. En ese contexto, YouTube anunció que en las próximas semanas dará acceso a todos los creadores de 18 años o más a su herramienta de detección de imagen, diseñada para identificar si el rostro de una persona fue copiado y utilizado en videos de IA subidos a la plataforma.
La medida amplía el alcance de un sistema que hasta ahora estaba disponible para grupos más limitados. Según explicó el equipo de la plataforma en su página de comunidad, el objetivo es ofrecer más tranquilidad a los usuarios al darles una vía sencilla para solicitar la eliminación de contenido no autorizado que use su semejanza digital.
El anuncio llega en un momento en que distinguir entre contenido auténtico y material sintético es cada vez más complejo. Los avances en modelos generativos han permitido replicar expresiones faciales, gestos, voces y patrones de habla con un nivel de realismo que complica tanto la moderación automatizada como la evaluación de los propios usuarios.
Para los creadores, el riesgo no es solo reputacional. Una copia digital convincente puede aparecer en anuncios, promociones o piezas engañosas asociadas a marcas y servicios sin permiso. También puede usarse en materiales maliciosos o confusos que terminen afectando la relación de confianza que mantienen con sus audiencias.
Cómo funciona la herramienta dentro de YouTube Studio
La función vive dentro de YouTube Studio en computadoras de escritorio y se integra en la sección de detección de contenido. Una vez activa, escanea videos alterados o generados con IA que puedan estar usando el rostro del usuario inscrito. Si el sistema detecta coincidencias potenciales, estas aparecen para revisión dentro del propio panel.
Desde allí, la persona puede examinar el video y solicitar su eliminación si considera que infringe las políticas de privacidad de la plataforma. El proceso busca reducir la fricción para actuar con rapidez ante casos de suplantación digital, un problema que gana relevancia a medida que las herramientas de generación audiovisual se vuelven más accesibles.
De acuerdo con la información difundida por la compañía, el alta requiere varios pasos de verificación. Los usuarios deben entrar a YouTube Studio desde su computadora, ir a la sección correspondiente a imagen dentro de detección de contenido, iniciar el proceso, escanear un código QR con el teléfono, enviar una identificación gubernamental y completar una verificación en video tipo selfie.
Una vez completada esa configuración, el sistema empieza a monitorear el contenido subido en busca de posibles coincidencias faciales. Si identifica material sospechoso, lo mostrará en la misma pestaña para que el usuario aporte contexto al presentar la solicitud de retiro. En esa revisión, YouTube también preguntará si el video imitó la voz de la persona, aunque la herramienta no puede detectar casos basados solo en voz.
La plataforma también advirtió que los usuarios podrían no ver resultados marcados de forma inmediata después de inscribirse. Eso no implica necesariamente un fallo del sistema. Puede significar simplemente que no existen muchas cargas que utilicen su rostro, o que todavía no se detectaron coincidencias relevantes.
De un piloto limitado a una protección más amplia
La detección de semejanza no nació con esta expansión general. YouTube mostró por primera vez un avance de la herramienta en 2024 y luego la implementó a finales de 2025. En esa etapa inicial, el acceso se reservó a miembros del Programa de Socios, es decir, creadores que ya habían monetizado sus canales tras reunir 1.000 suscriptores y cumplir con los umbrales de horas de visualización o vistas públicas de Shorts dentro del período exigido.
Más adelante, la empresa abrió la herramienta a periodistas y políticos antes de dar este paso hacia una disponibilidad mucho mayor. Ese recorrido deja ver que la plataforma trató de probar el sistema con grupos de alto perfil o con mayor exposición al riesgo de manipulación digital antes de extenderlo a una base más amplia.
Un portavoz identificado como Jack Malon señaló a The Verge que, en la práctica, cualquiera puede usar la herramienta, aunque técnicamente se presente como una función para creadores. En sus palabras, la expansión busca dejar claro que tanto quienes llevan una década subiendo contenido como quienes recién comienzan tendrán acceso al mismo nivel de protección.
Esa precisión es relevante porque el problema de la suplantación ya no afecta solo a personalidades públicas. La mayor disponibilidad de generadores de video e imagen implica que personas comunes también podrían encontrar sus rostros insertados en piezas falsas, engañosas o directamente maliciosas sin haber participado nunca en su producción.
Por qué los deepfakes preocupan cada vez más
El caso de YouTube refleja una presión más amplia sobre las plataformas digitales. Las herramientas de IA están evolucionando a un ritmo que supera la capacidad de muchos sistemas tradicionales de moderación. Como resultado, crece la exigencia para que las compañías desarrollen salvaguardas específicas frente al uso indebido de identidad, los medios sintéticos y los deepfakes.
En el terreno práctico, estos sistemas no solo sirven para detectar fraudes evidentes. También ayudan a abordar situaciones más grises, como el uso no autorizado de la imagen de un creador en promociones comerciales o campañas que no fueron aprobadas por la persona afectada. Eso puede tener implicaciones reputacionales, publicitarias e incluso legales.
Para audiencias y usuarios menos familiarizados con la tecnología, el trasfondo es simple: un deepfake es un contenido sintético que intenta parecer real al copiar rasgos de una persona. Cuando la imitación es convincente, el daño puede ir desde la desinformación hasta la estafa. Por eso, herramientas de identificación y mecanismos de denuncia más accesibles se están convirtiendo en una parte importante del ecosistema de seguridad digital.
Según reportaron Digital Trends y Engadget, YouTube presenta esta función como una vía para dar más visibilidad sobre el uso de la imagen de cada usuario dentro de la plataforma. Aunque no resuelve por completo el problema de la manipulación audiovisual, sí introduce una capa adicional de defensa en un escenario donde la autenticidad del contenido ya no puede darse por sentada.
Para los creadores, esa capa puede terminar siendo una de las herramientas de seguridad más importantes en la era de la IA generativa. Y para el resto de los usuarios, la expansión sugiere algo más amplio: la protección de la identidad digital empieza a ocupar un lugar central en la gobernanza de las grandes plataformas.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Mercados
Auge de Polymarket y Kalshi dispara alertas por apuestas sospechosas
Mercados
Rusia acelera compras de oro mientras Wall Street ve precios de hasta USD $6.300 por onza
Análisis de mercado
Dogecoin retrocede 4,84% y presiona soportes clave el 16 de mayo
Análisis de mercado