Por Canuto  

La pugna entre OpenAI y Anthropic volvió a escalar luego de que Sam Altman acusara a su competidor de recurrir a una narrativa de miedo para promocionar Mythos, su nuevo modelo de ciberseguridad. El cruce reabre el debate sobre si la industria de IA exagera riesgos existenciales y amenazas criminales para reforzar exclusividad, prestigio y control sobre herramientas avanzadas.
***

  • Sam Altman criticó a Anthropic por usar un supuesto “marketing basado en el miedo” alrededor de Mythos.
  • Anthropic lanzó su modelo de ciberseguridad a un pequeño grupo de clientes empresariales y dijo que era demasiado poderoso para el público.
  • La controversia revive un debate más amplio sobre el uso de retórica alarmista en la industria de inteligencia artificial.

 


La rivalidad entre OpenAI y Anthropic sumó un nuevo episodio esta semana. Sam Altman, CEO de OpenAI, criticó públicamente el nuevo modelo de ciberseguridad de Anthropic, llamado Mythos, y sugirió que la empresa estaría recurriendo al miedo para presentar su producto como algo más impresionante de lo que realmente sería.

De acuerdo con la cobertura de TechCrunch, Altman lanzó esos comentarios durante una aparición en el pódcast Core Memory. Allí dio a entender que el discurso de Anthropic sobre los riesgos de su modelo también sirve para justificar que tecnologías avanzadas permanezcan en manos de un grupo reducido.

El trasfondo es relevante porque Anthropic anunció Mythos a comienzos de abril. La empresa lo puso a disposición de un pequeño grupo de clientes empresariales y sostuvo que el sistema era demasiado poderoso para liberarlo de forma abierta, por temor a que ciberdelincuentes pudieran convertirlo en un arma.

Esa postura no pasó inadvertida. Según la misma información, algunos críticos consideran que ese tipo de retórica es exagerada. El debate, por tanto, no se limita a un cruce entre ejecutivos rivales, sino que toca una pregunta más amplia sobre cómo las empresas de IA describen las capacidades y los riesgos de sus propios modelos.

Altman cuestiona el discurso de Anthropic

Durante su intervención, Altman afirmó que existen personas que desde hace tiempo quieren mantener la inteligencia artificial dentro de círculos pequeños y exclusivos. En ese contexto, planteó que ese objetivo puede justificarse de distintas maneras, incluida una narrativa centrada en el peligro.

“Hay personas en el mundo que, durante mucho tiempo, han querido mantener la IA en manos de un grupo más pequeño de personas”, dijo Altman en el pódcast. “Puedes justificar eso de muchas maneras diferentes”.

El CEO de OpenAI fue más allá con una comparación provocadora. “Claramente es un marketing increíble decir: ‘Hemos construido una bomba, estamos a punto de lanzarla sobre tu cabeza. Te venderemos un refugio antiaéreo por USD $100.000.000’”, añadió, en una frase que sintetiza su acusación de “marketing basado en el miedo”.

La crítica de Altman apunta tanto a la forma en que se comunica Mythos como al modelo de acceso restringido que lo acompaña. Si un sistema se presenta como demasiado riesgoso para el público general, pero apropiado para un grupo limitado de compradores corporativos, el mensaje inevitablemente abre preguntas sobre poder, control y ventajas competitivas.

Qué dijo Anthropic sobre Mythos

Anthropic presentó Mythos a principios de este mes como un nuevo modelo orientado a tareas de ciberseguridad. El lanzamiento, sin embargo, no fue general. La firma decidió ofrecerlo únicamente a un pequeño grupo de clientes empresariales.

La razón expuesta por la compañía fue que el modelo sería demasiado poderoso para una distribución pública. En particular, Anthropic argumentó que existía el riesgo de que ciberdelincuentes utilizaran la herramienta con fines maliciosos si se abría su acceso de manera amplia.

Ese tipo de advertencias se ha vuelto cada vez más común en el sector de IA. En algunos casos, las empresas presentan sus modelos como instrumentos con enorme potencial productivo. En otros, remarcan escenarios extremos relacionados con desinformación, automatización ofensiva o riesgos de seguridad.

En el caso de Mythos, el punto sensible está en la tensión entre seguridad pública y exclusividad comercial. Para algunos observadores, restringir el acceso puede ser una medida prudente. Para otros, también puede funcionar como una forma de elevar el aura del producto y fortalecer su valor de mercado.

Una industria acostumbrada a la hipérbole

La controversia no surge en el vacío. Buena parte de la industria tecnológica ha recurrido en distintos momentos a mensajes grandilocuentes para describir el potencial de la IA. Eso incluye promesas de transformación radical, pero también advertencias sobre consecuencias severas si no se regula o controla adecuadamente.

El propio artículo señala que el marketing basado en el miedo no fue inventado por Anthropic. De hecho, puede argumentarse que una parte significativa del sector ha aprovechado tácticas alarmistas e hiperbólicas para hacer que sus herramientas parezcan más poderosas, más urgentes o más indispensables.

Esa observación también alcanza a quienes hoy critican esa narrativa. La retórica sobre la posibilidad de que la IA contribuya al fin del mundo no ha venido solo de activistas o de voces catastrofistas externas al negocio. También ha sido promovida por personas que comercializan esta tecnología, incluido el propio Altman.

Ese punto le da una capa adicional de complejidad al enfrentamiento. Altman cuestiona la estrategia comunicacional de Anthropic, pero la discusión también devuelve la atención hacia el ecosistema completo, donde líderes empresariales, inversionistas y desarrolladores han alternado entre promesas utópicas y advertencias apocalípticas.

Más que un choque de egos

Para lectores que siguen la evolución del sector, esta clase de declaraciones tiene implicaciones más profundas que una simple disputa verbal entre compañías rivales. OpenAI y Anthropic compiten por talento, clientes empresariales, prestigio técnico y posicionamiento político en el debate global sobre seguridad en IA.

En ese marco, el lenguaje importa. Decir que un modelo es demasiado peligroso para abrirse al público puede interpretarse como una señal de responsabilidad. Pero también puede entenderse como una herramienta para consolidar influencia, justificar barreras de acceso y reforzar la idea de que solo unas pocas organizaciones están capacitadas para administrar tecnologías de alto impacto.

El caso de Mythos ilustra precisamente esa tensión. Por un lado, los modelos especializados en ciberseguridad sí plantean preocupaciones legítimas, porque podrían asistir en tareas ofensivas si se usan mal. Por otro, sobredimensionar esas amenazas puede distorsionar la conversación pública y favorecer estrategias comerciales basadas en exclusividad.

La disputa también ocurre en un momento en que la IA se cruza cada vez más con áreas sensibles para empresas, gobiernos y mercados financieros. En sectores donde la seguridad informática, la automatización y la infraestructura digital son críticas, la forma de presentar capacidades técnicas puede influir tanto en la regulación como en la confianza de los compradores.

Por ahora, el intercambio deja claro que la competencia entre OpenAI y Anthropic no se libra solo en laboratorios y productos. También se juega en el terreno del relato, donde cada empresa intenta definir qué significa construir IA avanzada, quién debe controlarla y cómo deben entenderse sus riesgos reales.

En ese sentido, el choque alrededor de Mythos funciona como un recordatorio de que las promesas y advertencias de la industria deben leerse con cautela. Cuando una compañía asegura que una herramienta es demasiado poderosa para el público, y un rival responde que eso es puro marketing del miedo, el verdadero debate pasa a ser cuánto hay de seguridad genuina y cuánto de estrategia corporativa.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín