Por Angel Di Matteo   𝕏 @shadowargel

La Comisión Europea confirmó conversaciones con OpenAI y Anthropic sobre sus modelos de inteligencia artificial, en medio de crecientes preocupaciones globales sobre ciberseguridad y capacidades avanzadas de IA.

***

  • OpenAI ofreció acceso proactivo a sus modelos más recientes ante reguladores europeos.
  • Anthropic mantiene reuniones con Bruselas, aunque todavía sin discutir acceso a modelos.
  • Gobiernos occidentales evalúan controles más estrictos sobre IA avanzada.

 

La carrera global por regular inteligencia artificial avanzada continúa acelerándose mientras gobiernos occidentales intentan comprender el verdadero alcance de los modelos frontier AI desarrollados por compañías como OpenAI y Anthropic. Este lunes, la Comisión Europea confirmó que mantiene conversaciones activas con ambas empresas estadounidenses, aunque el tono y profundidad de esas discusiones parecen avanzar de forma muy distinta en cada caso.

Thomas Regnier, portavoz de la Comisión Europea en Bruselas, explicó durante una conferencia que OpenAI fue la primera compañía en ofrecer acceso a sus modelos más recientes de manera voluntaria. Según el funcionario, el organismo europeo interpretó el movimiento como una señal “proactiva” por parte de la empresa detrás de ChatGPT, informa Cryptopolitan.

La situación con Anthropic, sin embargo, parece bastante diferente. Regnier afirmó que representantes de la startup mantuvieron ya cuatro o cinco reuniones con autoridades europeas, aunque las conversaciones todavía no avanzaron hacia una posible revisión directa de modelos por parte del regulador.

“Con una empresa tienes una oferta proactiva de acceso. Con la otra tenemos buenos intercambios, aunque todavía no estamos en una etapa donde podamos especular sobre acceso potencial o no”, señaló el portavoz durante el briefing.

Aunque la Comisión Europea no detalló exactamente qué tipo de acceso fue ofrecido por OpenAI ni qué modelos específicos están siendo discutidos, el episodio refleja cómo las autoridades regulatorias comienzan a intensificar su supervisión sobre sistemas de inteligencia artificial cada vez más poderosos y difíciles de evaluar.

Europa quiere entender qué tan avanzados son realmente estos modelos

El contexto político detrás de estas conversaciones resulta especialmente importante. Durante este año comenzó a entrar gradualmente en vigor el AI Act de la Unión Europea, considerado uno de los marcos regulatorios más ambiciosos del mundo para inteligencia artificial.

La legislación europea introduce reglas basadas en niveles de riesgo y establece nuevas obligaciones para empresas que desarrollen o desplieguen sistemas de IA dentro del mercado europeo. Aunque actualmente las compañías no están obligadas formalmente a entregar sus modelos a gobiernos antes del lanzamiento comercial, las declaraciones de Bruselas sugieren que las autoridades desean obtener mucha mayor visibilidad sobre capacidades futuras de los sistemas más avanzados.

La preocupación crece especialmente porque OpenAI y Anthropic son actualmente dos de las empresas más importantes dentro del desarrollo de modelos frontier AI en Estados Unidos. Ambos laboratorios continúan aumentando rápidamente las capacidades de sus sistemas, mientras reguladores y gobiernos intentan determinar qué implicaciones reales podrían tener esos avances para seguridad, empleo, infraestructura crítica y estabilidad geopolítica.

La propia agenda oficial del briefing realizado el 11 de mayo ofrece pistas sobre cómo Bruselas percibe el tema. El servicio audiovisual de la Comisión Europea incluyó las discusiones relacionadas con OpenAI y Anthropic dentro de la categoría “Cybersecurity”, compartiendo espacio con temas vinculados a defensa y migración.

Ese detalle no pasó desapercibido para analistas del sector tecnológico. La clasificación muestra hasta qué punto la inteligencia artificial avanzada comienza a ser tratada no solamente como un asunto económico o tecnológico, sino también como una cuestión directamente relacionada con seguridad nacional y estabilidad institucional.

Washington también estudia controles previos al lanzamiento de IA

Mientras Europa profundiza conversaciones con empresas tecnológicas, Estados Unidos también comienza a evaluar medidas potencialmente mucho más agresivas para supervisar modelos avanzados.

Según reportes recientes, la Casa Blanca analiza mecanismos que podrían obligar a compañías de IA a someter sus modelos más poderosos a procesos de revisión antes de lanzarlos públicamente.

La discusión ganó fuerza después de que Anthropic decidiera restringir el acceso amplio a su modelo más reciente, Mythos, luego de detectar durante pruebas internas que el sistema era capaz de identificar vulnerabilidades explotables dentro de software a gran escala.

El caso generó preocupación dentro de gobiernos occidentales debido a que modelos capaces de descubrir fallas críticas podrían eventualmente facilitar desarrollo automatizado de ciberataques, explotación de vulnerabilidades zero-day y operaciones ofensivas mucho más sofisticadas.

Las alarmas crecieron aún más después de que investigadores del UK AI Safety Institute reportaran resultados similares durante evaluaciones realizadas sobre GPT-5.5 de OpenAI en abril.

Según hallazgos previamente reportados, el modelo logró reverse-engineering sobre una máquina virtual personalizada y resolvió un desafío técnico complejo más rápido que un experto humano. Ese tipo de capacidades alimenta crecientes preocupaciones sobre el potencial ofensivo de sistemas avanzados de IA en áreas como ciberseguridad, automatización de hacking y análisis autónomo de infraestructura crítica.

La combinación entre capacidades técnicas cada vez más sofisticadas y ausencia de estándares regulatorios globales claros está empujando a gobiernos hacia una posición mucho más intervencionista que hace apenas dos años.

La regulación de IA entra en una nueva etapa geopolítica

El acercamiento simultáneo entre gobiernos y laboratorios de inteligencia artificial refleja una transformación más amplia dentro del panorama tecnológico global. A medida que los modelos avanzados adquieren capacidades cercanas a tareas tradicionalmente reservadas para especialistas humanos altamente entrenados, las autoridades comienzan a considerar que estos sistemas podrían tener implicaciones directas sobre economía, defensa, ciberseguridad e incluso equilibrio geopolítico.

Durante años, gran parte del debate sobre IA estuvo centrado principalmente en productividad, automatización y riesgos laborales. Sin embargo, el surgimiento de modelos capaces de analizar código, descubrir vulnerabilidades y resolver problemas técnicos complejos comenzó a mover la conversación hacia escenarios mucho más sensibles relacionados con infraestructura crítica y seguridad estatal.

OpenAI y Anthropic se encuentran actualmente en el centro de esa discusión. Ambas compañías lideran parte importante de la carrera global por desarrollar modelos cada vez más avanzados, pero simultáneamente enfrentan presión creciente de gobiernos que buscan evitar perder completamente visibilidad sobre tecnologías potencialmente transformadoras.

Por ahora, las conversaciones entre Bruselas y las empresas todavía parecen mantenerse dentro de un terreno relativamente cooperativo. Sin embargo, el hecho de que la Comisión Europea ya esté discutiendo acceso directo a modelos avanzados muestra cómo el debate regulatorio sobre inteligencia artificial comienza a abandonar el terreno puramente teórico para convertirse en un asunto práctico y urgente de supervisión estatal.

La gran incógnita hacia adelante será hasta dónde estarán dispuestas las compañías tecnológicas a abrir sus sistemas a reguladores y qué nivel de intervención terminarán exigiendo gobiernos occidentales antes de permitir el despliegue masivo de futuras generaciones de inteligencia artificial.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín