Por Canuto  

La administración Trump evalúa un giro en su política sobre inteligencia artificial: la Casa Blanca estudia crear un grupo de trabajo y un posible proceso de revisión federal para nuevos modelos de IA, en medio de crecientes preocupaciones por ciberseguridad, uso militar y dependencia de grandes proveedores tecnológicos.

***

  • La Casa Blanca analiza una orden ejecutiva para crear un grupo de trabajo sobre inteligencia artificial.
  • Entre las medidas discutidas figura una revisión gubernamental de nuevos modelos antes de su lanzamiento público.
  • El debate se aceleró tras las alertas sobre Mythos, el modelo de Anthropic con capacidad para detectar debilidades de red.

 


La Casa Blanca está considerando un endurecimiento de la supervisión sobre los nuevos modelos de inteligencia artificial (IA), una señal de que la política tecnológica de Washington podría entrar en una etapa más intervencionista.

De acuerdo con reportes periodísticos publicados el 4 de mayo, la administración del presidente Donald Trump evalúa una orden ejecutiva para crear un grupo de trabajo sobre IA y estudiar un esquema de revisión oficial de modelos antes de que lleguen al público.

Si se concreta, la medida marcaría un cambio relevante frente al tono más favorable a la expansión de la industria que había mostrado la actual administración. Hasta ahora, Trump había respaldado sobre todo iniciativas para acelerar la construcción de centros de datos y garantizarles suministro energético, una prioridad para sostener la carrera por la IA a gran escala en Estados Unidos.

El asunto va más allá de la regulación pura. La discusión toca temas sensibles como ciberseguridad, competencia entre proveedores, adopción dentro del Pentágono y capacidad del gobierno para auditar sistemas que podrían tener impacto en finanzas, defensa e infraestructura crítica.

Según informó The New York Times, la propuesta en estudio incluiría un proceso de revisión gubernamental para nuevos modelos de IA. Ese reporte señaló que funcionarios de la Casa Blanca comentaron algunos de los planes con ejecutivos de Anthropic, Google de Alphabet y OpenAI durante reuniones realizadas la semana pasada.

Un funcionario de la Casa Blanca, citado bajo condición de anonimato para hablar sobre deliberaciones internas, indicó que cualquier anuncio vendría directamente del presidente. Al mismo tiempo, describió las conversaciones sobre posibles órdenes ejecutivas como especulación, lo que sugiere que aún no existe una decisión final ni un diseño definitivo sobre el alcance de la supervisión.

La incertidumbre no es menor. Por ahora no está claro cómo operarían esas revisiones, qué criterios usarían ni qué agencias asumirían la responsabilidad técnica o legal. Ese vacío es importante porque la supervisión de modelos avanzados exige capacidades especializadas, y no todas las oficinas federales tienen experiencia en evaluar riesgos emergentes de sistemas de frontera.

Un posible giro frente al enfoque previo

La posibilidad de imponer una revisión formal a nuevos modelos contrasta con el enfoque más laxo que había transmitido previamente el Plan de Acción sobre IA de la Casa Blanca. Ese marco había sido leído por muchos observadores como una hoja de ruta favorable a las empresas del sector, con menos énfasis en restricciones preventivas y mayor atención al crecimiento industrial.

En ese sentido, el nuevo debate refleja una tensión clásica en la política tecnológica. Por un lado, Washington quiere que sus compañías lideren la innovación global. Por otro, cada salto en capacidad de la IA eleva el temor a fallos de seguridad, abuso dual y dependencia excesiva de un puñado de proveedores privados.

La comparación que circula dentro de las conversaciones apunta al Reino Unido. El esquema que se estaría evaluando en Estados Unidos podría parecerse al del Instituto Británico de Seguridad en IA, una entidad que investiga modelos avanzados y emite recomendaciones sobre su uso seguro. Aun así, no hay confirmación de que la Casa Blanca vaya a copiar ese modelo de manera directa.

En Estados Unidos ya existen mecanismos de prueba, pero de forma voluntaria. Varios laboratorios de IA someten sus modelos de frontera al Centro federal para Estándares e Innovación en IA antes del lanzamiento. La diferencia es crucial: una revisión obligatoria supondría pasar de cooperación informal a supervisión institucional con posibles consecuencias regulatorias.

Mythos acelera las alarmas en Washington

El impulso reciente detrás de estas discusiones parece estar relacionado con Anthropic y su modelo Mythos. El mes pasado, la compañía anunció que ese sistema tenía habilidad para encontrar debilidades de red y que, por esa razón, podría representar un riesgo global de ciberseguridad. Ese punto habría elevado la preocupación en la administración Trump.

Anthropic restringió por ahora el acceso a Mythos a un grupo reducido de compañías financieras y tecnológicas para evaluar sus sistemas. Paralelamente, funcionarios estadounidenses trabajan para que el modelo pueda estar disponible de forma más amplia para agencias federales con fines de prueba, una señal de que el gobierno busca entender su alcance real antes de permitir una adopción extensa.

El caso es particularmente sensible porque la capacidad de detectar vulnerabilidades de red puede tener usos defensivos y ofensivos. En un entorno donde bancos, bolsas, infraestructuras energéticas y agencias estatales dependen de sistemas digitales complejos, una IA con ese perfil se convierte en un asunto de seguridad nacional y no solo en un producto comercial más.

Para sectores como cripto, finanzas digitales y blockchain, este detalle tiene una lectura extra. Los modelos capaces de analizar redes, automatizar detección de fallas o exponer vectores de ataque podrían ser útiles para fortalecer plataformas, pero también podrían amplificar riesgos en exchanges, custodios, puentes entre cadenas y servicios de pagos si terminan en manos inadecuadas.

La disputa entre Anthropic y el Pentágono

El avance del debate regulatorio ocurre en paralelo con una disputa entre el Pentágono y Anthropic. Según la información, el Departamento de Defensa chocó con la empresa por la insistencia de esta última en imponer salvaguardas adicionales al uso militar de su tecnología.

Tras el fracaso de las conversaciones contractuales en febrero, el Pentágono declaró a Anthropic una amenaza para la cadena de suministro. Además, delineó un período de seis meses para dejar de usar Claude, el producto de la compañía que hasta comienzos de este año era la única herramienta de IA autorizada para operar en redes clasificadas.

Ese episodio muestra otro frente de la discusión: no solo importa qué tan potente sea un modelo, sino bajo qué condiciones puede ser usado por organismos de defensa. La tensión entre laboratorios privados y agencias militares revela un problema creciente en la gobernanza de la IA, donde los desarrolladores buscan imponer límites éticos mientras el Estado prioriza operatividad y control estratégico.

Dentro de ese contexto, la jefa de gabinete de la Casa Blanca, Susie Wiles, y otros funcionarios se reunieron el 17 de abril con el director ejecutivo de Anthropic, Dario Amodei. Entre los temas abordados estuvo Mythos, lo que confirma que la empresa ocupa hoy un lugar central en las deliberaciones del gobierno sobre riesgos y adopción de IA avanzada.

Seguridad nacional, múltiples proveedores y control institucional

Además del posible grupo de trabajo, funcionarios estadounidenses preparan un memorando sobre adopción de IA por parte de agencias de seguridad nacional. El documento, según la información disponible, alentaría el uso de múltiples proveedores para reducir vulnerabilidades en la cadena de suministro.

Ese punto es relevante porque la dependencia de un solo laboratorio o plataforma puede crear cuellos de botella técnicos y riesgos estratégicos. Si una empresa cambia condiciones, restringe acceso, impone límites al uso militar o sufre una falla grave, el impacto podría extenderse a agencias que dependen de sus sistemas para análisis, automatización y operaciones sensibles.

El memorando también exigiría que los contratistas que trabajen con el Pentágono respeten la cadena de mando militar. Esa disposición apunta a reforzar el control institucional sobre herramientas privadas integradas en funciones de seguridad nacional, un asunto cada vez más crítico a medida que los modelos avanzados se vuelven parte del aparato estatal.

En conjunto, estas señales sugieren que Washington empieza a moverse desde una lógica de impulso industrial hacia otra más híbrida, donde crecimiento y supervisión tendrán que coexistir. Aún falta conocer el diseño final, pero el debate ya deja claro que la IA de frontera ha salido del terreno puramente empresarial y entró de lleno en la agenda de seguridad, regulación y poder geopolítico.

Para el ecosistema tecnológico y financiero, el mensaje es claro. Si la Casa Blanca avanza con revisiones obligatorias, las empresas de IA enfrentarán un marco más exigente antes de lanzar nuevos modelos. Y si bien eso podría ralentizar ciertos despliegues, también podría redefinir los estándares de seguridad para una industria que hoy opera en la frontera entre innovación acelerada y riesgo sistémico.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA.

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín