Por Angel Di Matteo   𝕏 @shadowargel

La Casa Blanca analiza nuevas medidas de control sobre inteligencia artificial, en un cambio respecto a su enfoque previo de mínima intervención.

***

  • Administración Trump estudia crear grupo de trabajo sobre IA.
  • Se evalúa revisión gubernamental de nuevos modelos.
  • Cambio de postura surge tras avances como Mythos de Anthropic.

 

El presidente de Estados Unidos, Donald Trump, estaría considerando introducir mecanismos de supervisión gubernamental sobre nuevos modelos de inteligencia artificial, marcando un giro relevante frente a su postura previa de mínima regulación hacia el sector tecnológico. Según funcionarios estadounidenses y fuentes cercanas a las deliberaciones, la administración evalúa emitir una orden ejecutiva para crear un grupo de trabajo especializado en inteligencia artificial que reúna a ejecutivos de la industria y autoridades gubernamentales, reseña The New York Times.

Este grupo tendría como objetivo analizar posibles esquemas de supervisión, incluyendo la implementación de un proceso formal de revisión de nuevos modelos de IA antes de su despliegue. En reuniones recientes, funcionarios de la Casa Blanca ya habrían compartido estas ideas con representantes de Anthropic, Google y OpenAI, lo que sugiere que el gobierno busca involucrar directamente a los principales actores del sector en el diseño de estas políticas.

De la desregulación al control: un cambio de enfoque

El posible movimiento representa un cambio significativo en la estrategia de la administración Trump respecto a la inteligencia artificial. Desde su regreso al poder, el mandatario había promovido activamente el desarrollo del sector, considerándolo clave en la competencia geopolítica con China. Entre sus primeras decisiones estuvo revertir iniciativas regulatorias de la administración anterior que exigían evaluaciones de seguridad para modelos con potencial uso militar.

En ese contexto, Trump defendía una postura de no intervención, argumentando que la IA debía desarrollarse sin restricciones excesivas. “Tenemos que dejar que ese bebé crezca y prospere”, afirmó en un evento en julio, advirtiendo contra regulaciones que pudieran frenar la innovación. Sin embargo, también dejó abierta la posibilidad de implementar normas, siempre que fueran lo suficientemente sofisticadas como para no obstaculizar el progreso tecnológico.

El cambio comenzó a gestarse el mes pasado tras el anuncio del modelo Mythos por parte de Anthropic. La compañía describió esta herramienta como lo suficientemente avanzada para identificar vulnerabilidades críticas en software, al punto de generar preocupaciones sobre un posible “punto de inflexión” en ciberseguridad. La decisión de no liberar el modelo al público encendió alertas dentro del gobierno.

Preocupaciones de seguridad y presión política

Uno de los principales factores detrás del giro en la política sería el temor a las implicaciones de seguridad nacional. Funcionarios de la Casa Blanca buscan evitar un escenario en el que un ciberataque impulsado por IA genere consecuencias políticas significativas. En paralelo, el gobierno también analiza el potencial uso de estos modelos en aplicaciones militares e inteligencia.

Dentro de las discusiones, algunos funcionarios han propuesto establecer un sistema que permita al gobierno acceder primero a nuevos modelos de IA antes de su lanzamiento público. Este enfoque no implicaría bloquear su despliegue, pero sí otorgaría a las autoridades una ventaja para evaluar riesgos y posibles aplicaciones estratégicas.

No obstante, este debate ha generado tensiones tanto dentro del gobierno como en la industria tecnológica. Algunos ejecutivos temen que una supervisión excesiva reduzca la competitividad de Estados Unidos frente a China, mientras que otros consideran necesario establecer salvaguardas ante el rápido avance de la tecnología.

Tensiones internas y disputas con la industria

El proceso de definición de esta política también coincide con cambios en el liderazgo dentro de la Casa Blanca. Tras la salida de David Sacks, quien lideraba los esfuerzos de desregulación en IA, figuras como Susie Wiles y Scott Bessent han asumido un rol más activo en la formulación de la estrategia tecnológica del gobierno.

Sin embargo, estos esfuerzos se han visto complicados por disputas entre el gobierno y el sector privado. Un ejemplo reciente es el conflicto entre Anthropic y el Pentágono en torno a un contrato de USD $200 millones relacionado con el uso de IA en aplicaciones militares. La falta de acuerdo llevó a la suspensión del uso de la tecnología de Anthropic por parte del gobierno en marzo, desencadenando posteriormente una demanda por parte de la empresa.

A pesar de este conflicto, algunas agencias continúan utilizando herramientas de la compañía. Sistemas como Maven, empleados para análisis de inteligencia y selección de objetivos, siguen integrando tecnología de Anthropic, mientras que la Agencia de Seguridad Nacional ha utilizado el modelo Mythos para evaluar vulnerabilidades en software gubernamental.

El dilema regulatorio: innovación vs. control

El posible establecimiento de un marco de revisión para modelos de IA plantea un desafío clave para la administración: encontrar un equilibrio entre innovación y seguridad. Expertos señalan que el ritmo acelerado del desarrollo tecnológico dificulta la creación de normas efectivas sin frenar el avance del sector.

Dean Ball, exasesor en IA de la administración, resumió este dilema al señalar que, aunque la tecnología avanza rápidamente y carece de procedimientos formales, tampoco existe consenso sobre el nivel adecuado de regulación. Este debate refleja una tensión más amplia sobre el papel del Estado en el desarrollo de tecnologías emergentes.

En este contexto, el grupo de trabajo propuesto podría evaluar qué agencias serían responsables de supervisar los modelos. Entre las opciones consideradas figuran la Agencia de Seguridad Nacional, la Oficina del Director Nacional de Ciberseguridad y el director de inteligencia nacional, ante la ausencia de una entidad única que coordine la ciberseguridad a nivel federal.

El resultado de estas deliberaciones podría redefinir la política estadounidense en inteligencia artificial, alejándose del enfoque inicial de desregulación hacia un modelo híbrido que combine impulso a la innovación con mecanismos de control estratégico.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín