Paul Tudor Jones lanzó una advertencia directa sobre el avance de la inteligencia artificial en Estados Unidos: para el inversionista, Washington ya llega tarde a la regulación de una tecnología que avanza con rapidez y que, sin controles claros, podría agravar riesgos como los deepfakes y la desinformación.
***
- Paul Tudor Jones afirmó que Estados Unidos debió regular la inteligencia artificial antes y urgió a actuar de inmediato.
- El gestor propuso el uso de marcas de agua para diferenciar contenido real de falsificaciones profundas creadas con IA.
- Según Jones, el apoyo a la regulación entre expertos del sector subió de cerca de 20% el año pasado a 80% recientemente.
Paul Tudor Jones, fundador y director de inversiones de Tudor Investment Corporation, aseguró que Estados Unidos se ha quedado rezagado en la regulación de la inteligencia artificial. El inversionista hizo la advertencia durante una entrevista en “Squawk Box” de CNBC, donde sostuvo que la respuesta oficial debió llegar antes.
“Necesitamos hacerlo mañana”, dijo Jones. “Ya vamos tarde. Ya deberíamos haberlo hecho”. Su mensaje se centró en la necesidad de crear mecanismos concretos para distinguir entre contenido auténtico y material manipulado mediante herramientas de IA.
Entre esas medidas, Jones planteó que los gobiernos deben impulsar marcas de agua para los contenidos generados por inteligencia artificial. A su juicio, este recurso ayudaría a separar piezas reales de las falsificaciones profundas, un problema que gana relevancia conforme los modelos se vuelven más sofisticados y accesibles.
La advertencia llega en un momento en el que la inteligencia artificial ocupa un lugar central en la agenda tecnológica, empresarial y política. A medida que aumentan las capacidades de los sistemas generativos, también crece la preocupación por su uso en fraudes, desinformación, suplantación de identidad y otros escenarios con impacto económico y social.
Más apoyo a regular la IA dentro de la propia industria
Jones explicó que, en una conferencia reciente con expertos en inteligencia artificial y creadores de modelos, el consenso a favor de la regulación subió de forma notable. Según relató, cerca de 80% de los participantes apoyaba algún tipo de regulación, frente a alrededor de 20% el año pasado.
Ese cambio es relevante porque muestra una evolución en el tono del propio sector. Durante los primeros años del auge de la IA generativa, una parte importante de la industria prefirió evitar reglas estrictas por temor a frenar la innovación. Sin embargo, el aumento de los riesgos visibles parece estar alterando esa postura.
Jones añadió que el líder de una de esas compañías le dijo que le sorprendía que la industria todavía no estuviera regulada. Ese comentario refuerza la idea de que la demanda de un marco legal ya no proviene solo de legisladores o académicos, sino también de actores directamente involucrados en el desarrollo de la tecnología.
El giro también expone una tensión clásica en los mercados tecnológicos. Las empresas quieren seguir compitiendo y capturando crecimiento, pero al mismo tiempo entienden que la ausencia de reglas claras puede generar daños reputacionales, litigios y un entorno de incertidumbre para inversionistas, usuarios y gobiernos.
Aun con sus advertencias, Jones dijo a CNBC que recientemente compró más acciones vinculadas con inteligencia artificial. Esa combinación de cautela regulatoria y apuesta financiera sugiere que el inversionista no cuestiona el potencial económico del sector, sino la falta de salvaguardas para acompañar su expansión.
Washington se mueve, pero el debate sigue abierto
La presión para regular la inteligencia artificial no es nueva en Estados Unidos. Legisladores y especialistas llevan tiempo reclamando normas para atender riesgos de seguridad, privacidad y protección. En muchos casos, la preocupación se ha acelerado por la velocidad con la que evolucionan los modelos de lenguaje y de generación multimedia.
En marzo, la Casa Blanca publicó un marco nacional de política sobre inteligencia artificial. Aunque ese paso marca una señal institucional, las discusiones sobre el alcance de una regulación federal siguen abiertas, especialmente en un entorno político donde también pesan la competitividad industrial y la seguridad nacional.
En paralelo, varios estados de EE. UU. han aprobado o presentado sus propias iniciativas legales. Gran parte de esos esfuerzos se ha enfocado en la protección infantil, una de las áreas donde existe mayor consenso político, dado el riesgo de exposición a contenido manipulado o dañino.
Fuera de Estados Unidos, la Unión Europea ya avanzó con una legislación más concreta. En 2024 aprobó la Ley de IA, convirtiéndose en una de las jurisdicciones más activas en la construcción de un marco regulatorio amplio para esta tecnología.
Ese contraste ayuda a entender por qué la frase de Jones resuena con fuerza. Cuando afirma que Estados Unidos llega tarde, no solo habla de un retraso interno, sino también de la posición relativa del país frente a otras economías que ya dieron pasos más definidos para ordenar el desarrollo y uso de sistemas de IA.
La carrera con China complica el tablero
La discusión regulatoria ocurre, además, en medio de una intensa rivalidad entre Estados Unidos y China por liderar la próxima etapa de la inteligencia artificial. El objetivo no es solo tener los mejores modelos, sino también construir la estrategia nacional más sólida en una tecnología que ya influye sobre productividad, defensa y poder económico.
Según reportó The Wall Street Journal esta semana, ambos países consideran conversaciones oficiales sobre inteligencia artificial en una próxima reunión entre Donald Trump y Xi Jinping. Esa posible instancia de diálogo refleja que la competencia no elimina la necesidad de coordinar posiciones en asuntos de seguridad.
Jones se mostró favorable a ese enfoque. “Todo el mundo quiere lo mejor para su gente”, dijo, al tiempo que señaló que no cree que China quiera “borrar del mapa” a Estados Unidos. Para él, la rivalidad geopolítica no debería impedir conversaciones sobre cómo reducir los riesgos asociados con la IA.
“Deberíamos estar dialogando con ellos sobre la seguridad de la IA”, añadió. Su comentario apunta a un tema que gana relevancia entre gobiernos y analistas: la posibilidad de que los países compitan en innovación, pero colaboren en estándares mínimos para evitar escenarios de daño masivo, manipulación o escaladas difíciles de controlar.
Ese equilibrio entre competencia y coordinación será una de las claves de los próximos años. La regulación de la inteligencia artificial no se juega solo en el plano doméstico, sino también en la capacidad de las grandes potencias para definir qué límites aceptan, qué riesgos priorizan y cómo supervisan tecnologías que cruzan fronteras con facilidad.
Un debate que también importa a los mercados
Las declaraciones de Jones resultan especialmente relevantes porque provienen de una figura influyente en los mercados financieros. Cuando un gestor de fondos de cobertura combina exposición a acciones de IA con una demanda explícita de regulación, el mensaje puede leerse como una señal de madurez para el sector.
En otras palabras, la narrativa ya no gira solo en torno al crecimiento y las valuaciones. También empieza a incorporar temas como cumplimiento, trazabilidad del contenido, control de riesgos y certidumbre jurídica. Para empresas tecnológicas e inversionistas, esos elementos pueden ser tan importantes como la velocidad de adopción.
La propuesta de usar marcas de agua resume bien esa lógica. Se trata de una idea concreta, vinculada a un problema visible para el público y potencialmente compatible con la continuidad del negocio. No resuelve por sí sola todos los desafíos de la IA, pero apunta a una capa básica de transparencia.
Por ahora, el mensaje central de Jones es simple: la inteligencia artificial avanza más rápido que las reglas. Y si Washington quiere evitar que la innovación quede atrapada entre el entusiasmo del mercado y los riesgos de abuso, tendrá que acelerar decisiones que, a juicio del inversionista, debieron haberse tomado hace tiempo.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
OpenClaw acelera la guerra de modelos de IA con agentes que ya no dependen de un solo LLM
Estados Unidos
Europa reabre el debate sobre Trump mientras escala la disputa por el control del cómputo en la nube
IA
IA Mythos de Anthropic detectó fallos críticos en Firefox ocultos durante más de una década
Empresas