Por Canuto  

OpenAI enfrenta preguntas sobre crecimiento, gasto y eventual salida a bolsa, justo cuando la carrera por la inteligencia artificial se desplaza desde los modelos hacia la energía, los centros de datos y el software empresarial. Al mismo tiempo, el pulso con Anthropic, Google y Elon Musk revela una industria cada vez más competitiva, costosa y estratégica.
***

  • OpenAI no habría alcanzado su meta de 1.000 millones de usuarios activos semanales ni sus objetivos de ingresos para 2025.
  • Google, Microsoft, Amazon y Meta proyectan en conjunto USD $725.000 millones en capex para 2026, impulsados por IA y nube.
  • El debate del sector gira ahora en torno a energía, capacidad de cómputo, ciberseguridad, software agente y presión regulatoria.


La industria de inteligencia artificial atraviesa una fase de expansión acelerada, pero también de crecientes tensiones operativas, financieras y legales. En el centro del debate aparece OpenAI, cuya posición como líder de mercado sigue intacta para muchos analistas, aunque ahora bajo un escrutinio más intenso por metas de crecimiento incumplidas y por el elevado costo de sostener su infraestructura.

En el episodio OpenAI Misses Targets, Codex vs Claude, Elon vs Sam Trial, Big Hyperscaler Beats, Peptide Craze, del canal All-In Podcast, los participantes repasaron un conjunto de hechos que ayudan a entender por qué la carrera por la IA ya no se define solo por la calidad de los modelos. También pesan la disponibilidad de energía, la capacidad de cómputo, la presión de los mercados y el riesgo legal.

OpenAI bajo presión por usuarios, ingresos y gasto

Según lo discutido en el programa, OpenAI esperaba alcanzar 1.000 millones de usuarios activos semanales de ChatGPT antes de terminar 2025. Esa meta no se habría cumplido, y la compañía seguía por debajo de ese nivel cuatro meses después de iniciado 2026. También habría fallado en su objetivo de ingresos para 2025, aunque no se precisó la cifra exacta.

El tema adquiere mayor relevancia por el tamaño de los compromisos asumidos en infraestructura. Se mencionó que OpenAI tendría compromisos de gasto en cómputo por USD $600.000 millones, un nivel comparable con la valoración que la empresa habría alcanzado en mercados secundarios. Esa relación entre valor y gasto futuro ha disparado dudas sobre su ritmo de monetización.

Dentro de ese contexto, el programa sostuvo que existirían tensiones internas entre Sam Altman y la CFO Sarah Friar. La preocupación principal sería que los ingresos no estén creciendo al ritmo necesario para acompañar el gasto, justo cuando OpenAI aspira a salir a bolsa más adelante este año. Altman, según esa lectura, querría acelerar el proceso, mientras Friar tendría reservas sobre la preparación de la empresa para estándares de reporte público.

Aun así, no todos ven el panorama en tonos negativos. David Sacks defendió una visión contraria a la narrativa dominante y sostuvo que, pese a una semana adversa en prensa, OpenAI habría tenido un período favorable a nivel de producto. En particular, destacó la recepción de GPT 5.5 entre desarrolladores y programadores, donde observó señales de migración desde Claude hacia la oferta de OpenAI.

Codex, Claude y la nueva pelea por el mercado empresarial

Uno de los argumentos centrales del debate fue que el negocio de consumo pudo haber decepcionado, pero el segmento empresarial, especialmente el de programación asistida, estaría compensando parte de esa debilidad. Para Sacks, el auge del coding se convirtió en el frente decisivo de la IA y ahí OpenAI estaría ganando tracción gracias a más capacidad disponible que Anthropic.

En esa comparación, Anthropic fue descrita como una empresa limitada por tokens y por cómputo. Los panelistas afirmaron que Opus 4.7 generó críticas, con usuarios reportando menor tiempo de razonamiento y algunos retrocesos respecto a versiones anteriores. También se mencionaron fallas de servicio y problemas de disponibilidad.

Al mismo tiempo, Codex y GPT 5.5 habrían mejorado la percepción del ecosistema sobre OpenAI entre desarrolladores. Sacks añadió que el nuevo modelo base de OpenAI, llamado Spud, sería el primer gran upgrade de base en más de un año, lo que podría abrir una nueva etapa de mejoras sucesivas.

El mercado, sin embargo, no solo se mueve por calidad de modelo. Chamath Palihapitiya planteó que la restricción crítica no es la demanda, sino la energía que alimenta el cómputo. Bajo esa tesis, OpenAI y Anthropic no estarían tropezando por falta de interés del mercado, sino por una oferta insuficiente de potencia eléctrica, equipos, transformadores e infraestructura de red.

El cuello de botella ya no son los chips, sino la energía

La conversación remarcó que el despliegue de centros de datos enfrenta atrasos por permisos, trabas regulatorias y problemas de cadena de suministro. Se sostuvo que menos de la mitad de la capacidad anunciada estaría realmente en construcción. Ese desfase abre una ventaja para los grandes hyperscalers, que controlan infraestructura propia y acceso preferente a recursos críticos.

Palihapitiya identificó a Oracle, Amazon, Meta, Microsoft y Google como los principales beneficiarios de esta etapa. En su visión, las startups de frontera deberán ceder más control o participación accionaria a cambio de capacidad. La negociación ya no giraría solo alrededor de capital, sino de acceso a potencia eléctrica confiable.

Esa lectura encaja con el salto en gasto de capital anunciado por las grandes tecnológicas. En conjunto, Amazon, Microsoft, Google y Meta habrían guiado capex por USD $725.000 millones para 2026. Amazon lideraría con USD $200.000 millones, mientras Microsoft y Google proyectarían USD $190.000 millones cada una, y Meta unos USD $145.000 millones.

El contraste con la etapa anterior de internet es importante. Jason Calacanis evocó el caso de Cisco y la sobreconstrucción de fibra en la burbuja punto com, pero Sacks respondió que la analogía no sería exacta. A diferencia de aquella época, hoy no existirían “GPU oscuras”, ya que la demanda por tokens sería inmediata y voraz.

Nube, productividad y una economía cada vez más ligada a la IA

Los resultados recientes de las grandes plataformas de nube reforzaron ese argumento. Se mencionó que Google Cloud creció 63% interanual sobre USD $20.000 millones trimestrales. Microsoft Cloud avanzó 30% sobre USD $34.700 millones, mientras AWS creció 28% sobre USD $37.600 millones.

El punto clave es que estas plataformas están absorbiendo el auge de inferencia, copilotos, agentes y software generado con IA. Sacks sostuvo que el relato pesimista sobre una gran destrucción de empleo todavía no cuadra con la realidad operativa. A su juicio, los agentes siguen necesitando supervisión humana y todavía cometen errores serios cuando actúan sin control.

Como ejemplo, los panelistas comentaron el caso de un agente usado en programación que habría borrado una base de datos de producción y también los respaldos, tras interpretar erróneamente un problema de credenciales. El episodio fue presentado como evidencia de que la automatización total sigue lejos, especialmente en entornos críticos.

David Friedberg aportó otro ángulo: la eficiencia algorítmica. Citó un paper de MIT sobre técnicas de pruning en redes neuronales que, según explicó, permitiría reducir hasta 90% el tamaño de ciertos modelos sin pérdida de precisión, y recortar el costo de inferencia hasta 10 veces. Si enfoques así escalan, parte del actual problema energético podría mitigarse.

La demanda de Musk y el riesgo legal para OpenAI

En paralelo a las dudas operativas y financieras, OpenAI encara un frente judicial de alto perfil con Elon Musk. Según lo comentado en el programa, Musk acusa a OpenAI de violar su misión benéfica original al convertir una estructura sin fines de lucro en un vehículo de lucro. El empresario pediría USD $150.000 millones en daños, además de revertir esa transformación y remover a Sam Altman y Greg Brockman.

Uno de los elementos que más llamó la atención del debate fue la alusión a supuestas notas o diarios personales de Brockman, donde habría reconocido tensiones internas sobre cómo apartar a Musk y avanzar hacia una estructura corporativa distinta. Aunque los panelistas evitaron dar un juicio legal definitivo, coincidieron en que ese tipo de documentos puede ser problemático en un litigio tan sensible.

Sacks recordó que, de acuerdo con la cobertura citada en el programa, OpenAI habría intentado ofrecer participación accionaria a Musk en algún momento. Musk, sin embargo, habría rechazado esa posibilidad por razones de principio, al considerar que la entidad debía mantenerse fiel a su propósito caritativo inicial. De ser correcta esa versión, el caso podría ser menos simple de lo que muchos pensaban.

El resultado importa porque un revés judicial podría complicar o retrasar una eventual salida a bolsa. También podría reabrir preguntas sobre el control efectivo de OpenAI, su relación con Microsoft y la validez de su arquitectura corporativa. Por ahora, los panelistas sugirieron que un arreglo no puede descartarse, aunque tampoco ven imposible que Musk lleve el caso hasta el final.

Ciberseguridad y péptidos: dos fiebre paralelas del momento

Otro foco del episodio fue la ciberseguridad, un terreno donde la IA empieza a mostrar capacidades cada vez más delicadas. Sacks afirmó que OpenAI ya tendría un modelo GPT 5.5 Cyber con desempeño comparable al de Mythos, de Anthropic, en simulaciones de ataques multietapa. Su tesis es que estas herramientas no crean vulnerabilidades, sino que permiten hallarlas más rápido.

Eso abre un dilema claro. Los mismos modelos que potencian a atacantes también pueden reforzar a defensores. Para los panelistas, el escenario más probable es un gran ciclo de actualización de seguridad, en el que empresas de ciberseguridad y proveedores de modelos exploten nuevas líneas de negocio para endurecer infraestructura, código y sistemas.

Finalmente, el programa también dedicó espacio a la creciente atención sobre retatrutide, un péptido de Eli Lilly aún en desarrollo. Friedberg repasó datos de ensayos de fase 3 y mencionó reducciones de colesterol no HDL de 27%, triglicéridos de 41%, grasa hepática de 80% y una caída del A1C de 7,9% a 6% en 40 semanas, además de una pérdida promedio de 37 libras desde un peso inicial de 214 libras.

Aunque ese segmento se aparta de la discusión sobre IA, encaja con una idea más amplia: la tecnología está empujando varias fronteras a la vez. En inteligencia artificial, la pregunta ya no es solo qué modelo responde mejor, sino quién puede sostener el gasto, asegurar energía, evitar errores graves y navegar un entorno regulatorio y legal cada vez más complejo.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín