Por Hannah Pérez  

Funcionarios de la administración Trump buscan calmar preocupaciones del sector tecnológico tras reportes sobre posibles revisiones federales obligatorias para modelos avanzados de inteligencia artificial antes de su lanzamiento público.

***

  • La Casa Blanca afirma que prioriza “alianzas” con empresas antes que nuevas regulaciones gubernamentales.
  • Kevin Hassett comparó posibles pruebas de seguridad para IA con el proceso de aprobación de medicamentos de la FDA.
  • Empresas y grupos tecnológicos temen que un sistema de aprobación previa afecte la competencia y la innovación.

 


 

La administración del presidente Donald Trump intenta reducir las tensiones generadas dentro de la industria tecnológica tras reportes sobre posibles mecanismos de supervisión federal para modelos avanzados de inteligencia artificial (IA) antes de que sean liberados al público.

De acuerdo con un reporte de Politico, altos funcionarios de la Casa Blanca han transmitido mensajes contradictorios en torno a la posibilidad de establecer un sistema de revisión para herramientas de IA desarrolladas por empresas como OpenAI, Anthropic y Google, que se aplicaría previo a su lanzamiento público al mercado.

El debate se produce en medio de crecientes preocupaciones dentro del gobierno estadounidense sobre el potencial uso malicioso de modelos avanzados de IA para ataques cibernéticos, explotación de vulnerabilidades críticas e incluso el desarrollo de armas biológicas.

Según el informe, funcionarios cercanos a la administración buscan evitar la percepción de que Washington planea imponer un esquema regulatorio agresivo sobre el sector de IA, una industria que Estados Unidos considera estratégica frente a competidores como China.

“La Casa Blanca continuará liderando un esfuerzo America First que empodere a los grandes innovadores estadounidenses, no a la burocracia”, escribió la jefa de gabinete Susie Wiles en una publicación en X citada por Politico.

La polémica comenzó luego de declaraciones realizadas por Kevin Hassett durante una entrevista con Fox Business, en las que confirmó que la administración estudia un posible decreto ejecutivo para establecer lineamientos de seguridad sobre futuros modelos de IA.

Hassett comparó el eventual sistema de pruebas de seguridad con el proceso que utiliza la Administración de Alimentos y Medicamentos de EE. UU. (FDA, por sus siglas en inglés) para aprobar medicamentos antes de su comercialización. “Estamos estudiando posiblemente una orden ejecutiva… igual que un medicamento aprobado por la FDA”, dijo Hassett, según Politico.

Las declaraciones generaron preocupación inmediata entre compañías tecnológicas y grupos vinculados a la industria, debido al temor de que el gobierno estadounidense avance hacia un modelo de autorización previa obligatoria para sistemas de inteligencia artificial.

Temor a una supervisión previa obligatoria

El reporte indica que funcionarios de la Casa Blanca han discutido internamente mecanismos mediante los cuales empresas desarrolladoras de IA tendrían que coordinar con el gobierno antes de lanzar modelos avanzados al mercado.

Aunque todavía no existe claridad sobre el alcance real de estas medidas, algunas propuestas incluirían la participación de la comunidad de inteligencia estadounidense para evaluar capacidades peligrosas antes de una liberación masiva.

Según tres personas familiarizadas con los planes citadas por Politico, uno de los objetivos sería permitir que agencias de inteligencia puedan estudiar y explotar determinadas capacidades antes de que adversarios geopolíticos como Rusia o China tengan acceso a ellas.

La administración Trump parece especialmente preocupada por herramientas capaces de descubrir vulnerabilidades críticas de software a gran escala, una capacidad que recientemente comenzó a emerger en modelos experimentales de IA.

En ese contexto, el subsecretario de Defensa Emil Michael señaló durante una conferencia sobre inteligencia artificial en Washington que el gobierno necesita prepararse para un nuevo escenario de ciberseguridad impulsado por estos modelos.

“El momento Mythos es realmente un momento para la ciberseguridad”, afirmó Michael, en referencia a sistemas avanzados capaces de automatizar descubrimiento y explotación de fallas informáticas.

El debate refleja un cambio importante respecto a la postura inicial de Trump al regresar a la Casa Blanca, cuando prometió reducir regulaciones sobre inteligencia artificial para acelerar la competitividad estadounidense. Ahora, el gobierno enfrenta presiones internas para establecer mecanismos de control que reduzcan riesgos asociados con tecnologías cada vez más poderosas.

Anthropic y OpenAI intensifican preocupaciones de seguridad

Parte de las preocupaciones actuales dentro del gobierno surgieron tras anuncios recientes de Anthropic relacionados con su sistema experimental “Claude Mythos”.

La empresa informó el mes pasado que había desarrollado una herramienta tan eficaz para actividades de hacking ofensivo que decidió no liberarla públicamente. En su lugar, Anthropic indicó que el sistema únicamente sería compartido con un grupo reducido de organizaciones tecnológicas y de seguridad, permitiendo corregir vulnerabilidades críticas antes de que actores maliciosos puedan explotarlas.

La compañía también estimó que capacidades similares podrían estar ampliamente disponibles en aproximadamente un año. De acuerdo con Politico, agencias federales estadounidenses han mostrado gran interés en acceder a Mythos desde su anuncio.

La situación también ocurre en medio de tensiones entre Anthropic y el Departamento de Defensa de Estados Unidos. El reporte señala que el secretario de Defensa Pete Hegseth designó a Anthropic como “riesgo de cadena de suministro” luego de desacuerdos sobre el uso militar de sus modelos en vigilancia masiva y ataques autónomos letales.

Paralelamente, OpenAI anunció esta semana vistas previas limitadas de una nueva herramienta denominada “GPT-5.5-Cyber”, diseñada para detectar y corregir vulnerabilidades de ciberseguridad.

La aparición de estos sistemas incrementó la presión sobre la Casa Blanca para definir rápidamente estándares de seguridad relacionados con inteligencia artificial avanzada.

La industria teme efectos sobre la competencia

Diversos ejecutivos tecnológicos y organizaciones vinculadas al sector expresaron preocupación sobre las consecuencias de un posible esquema de aprobación previa gubernamental.

Daniel Castro, líder de un think tank financiado por empresas como Anthropic, Microsoft y Meta, advirtió que un sistema donde el gobierno pueda retrasar o negar lanzamientos tendría fuertes implicaciones competitivas. “Si un competidor obtuviera la aprobación y otro no, eso podría tener un impacto enorme”, señaló Castro, según Politico.

Actualmente ya existen acuerdos voluntarios de evaluación y pruebas de seguridad entre algunas compañías tecnológicas y organismos federales estadounidenses. El Center for AI Standards and Innovation, perteneciente al Departamento de Comercio, mantiene programas de revisión con laboratorios de IA como Google DeepMind, xAI y Microsoft.

Sin embargo, la posibilidad de transformar esos mecanismos en procesos obligatorios genera inquietud dentro de la industria, especialmente por el impacto potencial sobre innovación, tiempos de lanzamiento y acceso competitivo al mercado.

Para muchas compañías, la ventaja en inteligencia artificial depende precisamente de la velocidad con la que pueden desarrollar y desplegar nuevos modelos frente a sus rivales globales.


Imagen de Unsplash

Este artículo fue escrito por un redactor de contenido de IA


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín