Un nuevo proyecto de ley en la Cámara de Representantes de EE. UU. busca endurecer el trato contra los deepfakes y las imágenes no consensuadas, al tiempo que refuerza la protección para denunciantes de riesgos vinculados con la IA. La propuesta, liderada por Ted Lieu y respaldada por Jay Obernolte, recoge parte del trabajo bipartidista que el Congreso viene desarrollando para establecer una base regulatoria sobre IA sin entrar todavía en los temas más divisivos.
***
- La iniciativa elevaría las sanciones por distribuir imágenes deepfake y contenido no consensuado generado con IA.
- El proyecto también protegería a denunciantes que reporten riesgos de seguridad o infracciones relacionadas con sistemas de IA.
- La propuesta surge del grupo de trabajo bipartidista de la Cámara sobre IA, aunque evita por ahora debates más sensibles como la preeminencia federal sobre leyes estatales.
La Cámara de Representantes de Estados Unidos evalúa un nuevo proyecto de ley sobre inteligencia artificial (IA) que apunta a dos frentes sensibles del debate regulatorio actual: la distribución de deepfakes y la protección de denunciantes que reporten riesgos o irregularidades vinculadas con esta tecnología.
La medida fue patrocinada por el representante Ted Lieu, demócrata por California, y cuenta con el respaldo del representante Jay Obernolte, republicano también por California. Ambos encabezaron el grupo de trabajo bipartidista de la Cámara sobre inteligencia artificial, del que surge buena parte de la arquitectura política de esta propuesta.
De acuerdo con la información reportada por CNBC, el proyecto de ley impondría sanciones más estrictas contra la distribución de imágenes deepfake y de imágenes no consensuadas. Además, incluiría mecanismos para facilitar que los denunciantes informen preocupaciones relacionadas con la IA, en especial cuando se trate de riesgos de seguridad o posibles violaciones.
El texto legislativo aparece en un momento en que Washington intenta avanzar en marcos regulatorios más concretos para la IA. Hasta ahora, el debate se ha concentrado en los peligros de los contenidos sintéticos, la opacidad de algunos modelos y la velocidad con la que estas herramientas están entrando en sectores críticos.
Lieu describió la iniciativa como “un paso adelante” en declaraciones citadas por CNBC. Según el legislador, la propuesta no fue diseñada para ser controvertida, sino para apoyarse en trabajos previos que ya tenían base bipartidista dentro del Congreso.
El congresista sostuvo que el texto retoma legislación presentada por otros miembros de la Cámara, además de las recomendaciones elaboradas por el grupo de trabajo bipartidista sobre IA. En sus palabras, la intención es avanzar con algo concreto “en este período ahora mismo” mediante un proyecto que tenga mayores posibilidades de reunir apoyos.
Qué incluye la propuesta
Entre sus puntos centrales, la iniciativa contempla protecciones para los denunciantes que reporten riesgos de seguridad asociados con la inteligencia artificial o posibles infracciones. Ese componente busca reducir el costo personal y profesional que a menudo enfrentan quienes alertan sobre prácticas peligrosas en empresas o desarrolladores de tecnología.
El proyecto también exigiría que Estados Unidos participe en organizaciones internacionales dedicadas al desarrollo de estándares técnicos para la IA. Ese aspecto tiene relevancia porque la carrera regulatoria ya no se limita al plano nacional, sino que depende cada vez más de normas interoperables entre gobiernos, industria y organismos técnicos.
Otro elemento incluido es la creación de un concurso con premios para investigaciones y desarrollos innovadores en inteligencia artificial. La propuesta intenta así equilibrar control y promoción tecnológica, al combinar sanciones y resguardos con incentivos para la innovación.
En conjunto, el texto busca construir una base regulatoria de alcance práctico. No se presenta como una reforma total del ecosistema de IA, pero sí como una pieza legislativa enfocada en áreas donde existe más consenso político y social, sobre todo en materia de daños inmediatos.
Los temas que el proyecto evita por ahora
Aunque el proyecto cubre varios puntos relevantes, también deja fuera algunos de los debates más difíciles en torno a la regulación de la inteligencia artificial en Estados Unidos. Esa omisión parece deliberada y forma parte de la estrategia para evitar que la iniciativa se estanque por desacuerdos más profundos.
Uno de los asuntos que no resuelve es si debe existir una norma federal que prevalezca sobre las leyes estatales en materia de IA. Ese choque entre autoridad federal y poder regulatorio de los estados se ha convertido en una de las discusiones más complejas del proceso legislativo estadounidense.
Tampoco aborda la cuestión de si deberían exigirse pruebas obligatorias para sistemas de IA empleados en sectores como la infraestructura crítica y la educación. Estos ámbitos suelen considerarse de alto impacto porque una falla, sesgo o uso indebido puede afectar seguridad pública, acceso a servicios o derechos fundamentales.
La exclusión de estos temas no significa que hayan perdido relevancia. Más bien refleja que el Congreso sigue buscando fórmulas políticamente viables para legislar sobre una tecnología que cambia con rapidez y cuyos riesgos no siempre encajan con marcos jurídicos tradicionales.
El contexto político detrás del proyecto
El papel de Ted Lieu y Jay Obernolte resulta clave para entender el alcance de la propuesta. Ambos lideraron el grupo de trabajo bipartidista de la Cámara sobre IA, un esfuerzo orientado a generar recomendaciones comunes en un terreno donde republicanos y demócratas suelen chocar en asuntos regulatorios.
Que un demócrata presente el proyecto con apoyo del principal republicano del grupo envía una señal política importante. Sugiere que, al menos en temas como deepfakes, imágenes no consensuadas y protección a denunciantes, existe un margen real para acuerdos legislativos en Washington.
Sin embargo, Obernolte también trabaja en su propio paquete legislativo sobre inteligencia artificial, que espera publicar más adelante este año. Al igual que la propuesta de Lieu, ese futuro paquete se basará en el trabajo desarrollado por el grupo de trabajo bipartidista.
Eso abre la puerta a que el Congreso termine discutiendo varias piezas complementarias, en vez de una sola gran ley integral. En la práctica, ese enfoque incremental podría resultar más realista dada la complejidad técnica, económica y política que rodea a la IA.
Por qué los deepfakes se volvieron un punto prioritario
Los deepfakes se han convertido en una de las expresiones más visibles del riesgo asociado con la inteligencia artificial generativa. Mediante modelos capaces de alterar rostros, voces e imágenes, esta tecnología puede producir contenido altamente convincente que complica distinguir entre lo real y lo fabricado.
En el plano público, el problema no se limita a la desinformación. También afecta la privacidad, la reputación y la seguridad de las personas, sobre todo cuando se crean o distribuyen imágenes no consensuadas. Por eso, este punto ha ganado tracción política con más rapidez que otros debates regulatorios todavía más abstractos.
La propuesta impulsada en la Cámara intenta responder a ese riesgo inmediato con sanciones más duras y con un marco que desincentive la circulación de este tipo de materiales. A la vez, reconoce que parte del problema también pasa por cómo se diseñan, supervisan y reportan los sistemas de IA.
Desde esa óptica, la protección a denunciantes no es un agregado menor. Puede transformarse en una herramienta para sacar a la luz fallos de seguridad, malas prácticas internas o incumplimientos antes de que generen daños masivos o se extiendan por plataformas digitales.
Por ahora, el proyecto de ley se perfila como un intento de avanzar por la vía de los acuerdos posibles. En vez de resolver de una vez toda la agenda de la IA, apunta a establecer una base más inmediata sobre contenidos sintéticos dañinos, estándares técnicos y canales de denuncia dentro de un marco bipartidista.
Si logra avanzar, la iniciativa podría convertirse en una referencia para próximas discusiones legislativas sobre inteligencia artificial en Estados Unidos. También serviría como señal de que el Congreso busca intervenir en riesgos concretos sin esperar a que exista un consenso total sobre los aspectos más disputados de la gobernanza de esta tecnología.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Sam Altman dice que duerme menos por GPT-5.5 mientras OpenAI redefine sus principios
Empresas
OpenAI apunta a smartphone con IA y chips propios para desafiar a Apple y Samsung
Empresas
Empleados de Palantir cuestionan rumbo ético de la empresa por contratos con ICE y el Pentágono
Empresas