
La empresa detrás de ChatGPT busca reparar su imagen en Hollywood tras una ola de videos falsos generados con su IA.
***
- Bryan Cranston agradeció a OpenAI por reforzar sus políticas tras descubrir deepfakes con su rostro.
- SAG-AFTRA, UTA y CAA se unen para exigir control sobre la voz e imagen de los actores.
- OpenAI actualiza su política y apoya el proyecto de ley estadounidense NO FAKES Act.
🚨 OpenAI se asocia con Bryan Cranston y SAG-AFTRA para luchar contra deepfakes
Tras el uso abusivo de su IA Sora, OpenAI refuerza políticas sobre derechos de imagen.
Cranston y agencias de talento exigen control total sobre su identidad.
Sam Altman respalda el NO FAKES Act… pic.twitter.com/QQ3lgb23mf
— Diario฿itcoin (@DiarioBitcoin) October 20, 2025
OpenAI, la empresa desarrolladora del popular chatbot ChatGPT, anunció el lunes una alianza con el actor Bryan Cranston, el sindicato SAG-AFTRA y las principales agencias de talento de Hollywood para combatir la proliferación de deepfakes creados con su herramienta de video impulsada por inteligencia artificial, Sora.
La medida llega después de que surgieran en línea videos falsos con el rostro y la voz de Cranston poco después del lanzamiento de Sora 2 a finales de septiembre. El actor, conocido por su papel en Breaking Bad, no tenía conocimiento de esos clips hasta que se viralizaron, lo que desató indignación en la comunidad artística, indica Cryptopolitan.
A través de un comunicado de SAG-AFTRA en X, Cranston expresó: “Estoy agradecido con OpenAI por su política y por mejorar sus mecanismos de protección, y espero que ellos y todas las empresas involucradas respeten nuestro derecho personal y profesional a controlar la réplica de nuestra voz e imagen”.
El mensaje coincidió con el anuncio de una alianza formal entre OpenAI, SAG-AFTRA, United Talent Agency (UTA), Creative Artists Agency (CAA) y la Association of Talent Agents (ATA) para impedir el uso no autorizado de la identidad de actores y artistas.
El conflicto con las agencias por el uso indebido de Sora 2
Desde hace meses, OpenAI enfrenta críticas por parte de agencias de talento que acusan a la empresa de usar material con derechos de autor para entrenar sus modelos. Tanto la CAA como la UTA calificaron a Sora como una amenaza directa a la propiedad intelectual de sus clientes.
Las advertencias se volvieron realidad cuando usuarios comenzaron a subir videos irrespetuosos de Martin Luther King Jr. generados con Sora, lo que llevó al patrimonio del célebre personaje a solicitar su eliminación. OpenAI cumplió con el pedido y eliminó los contenidos.
La polémica creció cuando Zelda Williams, hija del fallecido comediante Robin Williams, pidió públicamente a los usuarios que dejaran de enviarle videos creados con IA que imitaban a su padre. El incidente reforzó las críticas sobre la falta de controles en la herramienta y su potencial para causar daño emocional y reputacional.
Ante la presión, OpenAI anunció una actualización de sus políticas. La compañía ya exigía consentimiento explícito para usar voz o imagen de una persona, pero ahora promete responder con mayor rapidez ante cualquier queja sobre suplantaciones o usos indebidos.
Sam Altman cambia de rumbo y apoya el NO FAKES Act
El 3 de octubre, el CEO de OpenAI, Sam Altman, oficializó un cambio de política clave: la empresa dejará de asumir que puede usar materiales a menos que el titular de los derechos se oponga. Ahora, los actores y sus agencias podrán ejercer “control granular sobre la generación de personajes”, una medida que otorga poder directo sobre cómo y cuándo se puede replicar su identidad.
Altman también reafirmó su apoyo a la NO FAKES Act, un proyecto de ley estadounidense que busca frenar las réplicas no autorizadas mediante inteligencia artificial. “OpenAI está profundamente comprometida con la protección de los intérpretes frente a la apropiación indebida de su voz e imagen”, declaró el ejecutivo. “Fuimos uno de los primeros partidarios de la NO FAKES Act cuando se presentó el año pasado, y siempre defenderemos los derechos de los artistas”.
Presión legal y reputacional sobre OpenAI
El giro llega en un momento en que OpenAI intenta consolidar su posición como líder de la industria de la IA, con proyectos que abarcan desde asistentes conversacionales hasta plataformas empresariales. Sin embargo, la empresa enfrenta crecientes desafíos legales y éticos relacionados con la propiedad intelectual y el uso de datos personales.
Con miles de millones de dólares invertidos en centros de datos y chips de inteligencia artificial, OpenAI necesita evitar demandas y restaurar la confianza de los actores, agencias y legisladores. La cooperación con Hollywood busca precisamente eso: un equilibrio entre innovación tecnológica y respeto por los derechos humanos y creativos.
Esta alianza marca un paso simbólico en la relación entre Silicon Valley y la industria del entretenimiento, que ahora se ve obligada a redefinir los límites entre la creación humana y la automatización digital.
Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados

Cofundador de Solana admite estar “jugando” con IA Claude para codificar un DEX de cripto perpetuos

Neon de Opera demuestra lo confusos que siguen siendo los navegadores con IA

Andrew Cuomo anuncia iniciativa para posicionar a Nueva York como una capital cripto
