El gobierno estadounidense amplía su capacidad de supervisión sobre la inteligencia artificial con acuerdos clave con grandes tecnológicas. Las evaluaciones previas al lanzamiento buscan reforzar la seguridad en un contexto de creciente preocupación por modelos avanzados.
***
- Google, Microsoft y xAI permitirán revisión anticipada de sus modelos de IA.
- El programa se expande tras el impacto del sistema Mythos de Anthropic.
- Washington evalúa formalizar un esquema de supervisión más amplio.
El gobierno de Estados Unidos está consolidando un nuevo esquema de supervisión sobre la inteligencia artificial tras alcanzar acuerdos con Google, Microsoft y xAI para acceder anticipadamente a sus modelos antes de su lanzamiento público, y dichas compañias accedieron a las condiciones dispuestas por la administración Trump.
Con estos acuerdos, las compañías se suman a OpenAI y Anthropic, que ya colaboraban con el Centro para Estándares e Innovación de la IA, entidad del Departamento de Comercio encargada de evaluar capacidades, riesgos y seguridad de sistemas de inteligencia artificial avanzados, ofreciendo a la entidad acceso a sus respectivos modelos de inteligencia artificial. Desde 2024, este organismo ha realizado más de 40 evaluaciones, incluyendo modelos de última generación que aún no han sido publicados, lo que evidencia el creciente rol del gobierno en la validación previa de tecnologías críticas.
Un giro hacia mayor supervisión
La ampliación de estos acuerdos llega en un momento clave para la política tecnológica estadounidense. El detonante más reciente ha sido el impacto del modelo Mythos de Anthropic, cuya capacidad para identificar vulnerabilidades en sistemas de ciberseguridad encendió alarmas dentro del gobierno. Este contexto ha impulsado una expansión del mandato del centro, originalmente creado en 2023 bajo la administración de Joe Biden como el AI Safety Institute, y posteriormente reconfigurado por el gobierno de Donald Trump bajo su nombre actual.
El organismo se define ahora como el principal punto de contacto entre la industria y el gobierno para pruebas, investigación colaborativa y desarrollo de estándares, aunque su rol aún no ha sido formalizado mediante legislación. Sin embargo, ya existen iniciativas en el Congreso para otorgarle un estatus más permanente.
“Estas colaboraciones ampliadas nos permiten escalar nuestro trabajo en el interés público en un momento crítico”, señaló Chris Fall, director del centro, quien asumió el cargo tras la salida abrupta de su predecesor, reseña Bloomberg.
Hacia un modelo de revisión previa de la IA
Los acuerdos también se alinean con discusiones más amplias dentro de la Casa Blanca sobre la posible creación de un sistema formal de revisión gubernamental para modelos de inteligencia artificial.
Diversos reportes indican que la administración Trump evalúa una orden ejecutiva para establecer un proceso de evaluación antes del despliegue público de nuevas tecnologías, lo que representaría un cambio relevante respecto a la postura inicial de menor intervención.
El AI Action Plan del gobierno ya contempla que el Center for AI Standards and Innovation lidere evaluaciones relacionadas con seguridad nacional, además de incentivar a reguladores a utilizar estos análisis como base para aplicar leyes existentes al ámbito de la IA.
En la práctica, esto podría abrir la puerta a nuevas formas de enforcement sin necesidad de legislación completamente nueva, utilizando marcos regulatorios ya vigentes.
Tensiones con Anthropic y el Pentágono
No obstante, la implementación de estos acuerdos no está exenta de fricciones. La relación entre el gobierno estadounidense y Anthropic atraviesa un momento complejo debido a una disputa con el Departamento de Defensa sobre el uso de su tecnología.
Actualmente existen litigios en curso sobre si el Pentágono puede considerar a Anthropic como un riesgo en la cadena de suministro. En paralelo, tanto el secretario de Defensa, Pete Hegseth, como la administración Trump han planteado un período de transición de seis meses para dejar de utilizar herramientas de la empresa.
Estas tensiones reflejan un dilema más amplio: mientras el gobierno busca aprovechar el potencial estratégico de modelos avanzados como Mythos, también intenta mitigar los riesgos asociados a su despliegue.
Un nuevo equilibrio entre innovación y control
El avance de estos acuerdos marca un punto de inflexión en la relación entre Silicon Valley y Washington. Lo que comenzó como una estrategia de desarrollo acelerado con mínima intervención está evolucionando hacia un modelo híbrido, donde la innovación sigue siendo prioritaria, pero bajo una supervisión más estructurada.
En este escenario, el acceso anticipado a modelos de IA se perfila como una herramienta clave para equilibrar competitividad tecnológica, seguridad nacional y confianza pública, en un entorno donde las capacidades de estos sistemas avanzan más rápido que los marcos regulatorios tradicionales.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Criptomonedas
SEC propone eliminar reportes trimestrales y reabre el debate sobre acciones cripto
Criptomonedas
Drift propone tokens de recuperación tras hackeo de USD $295,4 millones vinculado a Corea del Norte
Criptomonedas
Kelp acusa a LayerZero de avalar la configuración ligada al hackeo de USD $292 millones
Criptomonedas