Google elevó la apuesta en la carrera por la inteligencia artificial con un compromiso de hasta USD $40.000 millones para Anthropic, en una semana marcada por el lanzamiento de GPT 5.5, nuevos anuncios de Google Cloud y una discusión cada vez más intensa sobre el verdadero cuello de botella del sector: no solo los modelos, sino también el cómputo, la energía y la fabricación de chips.
***
- Google comprometió hasta USD $40.000 millones en Anthropic, mientras Amazon ya acumula compromisos por USD $33.000 millones con la misma firma.
- OpenAI presentó GPT 5.5 con mejoras en razonamiento de contexto largo, menos alucinaciones y un fuerte enfoque en tareas de código y empresa.
- El debate de fondo se desplaza desde los pesos de los modelos hacia el acceso a chips, energía, centros de datos y capacidad de fabricación.
La carrera global por la inteligencia artificial volvió a acelerar con fuerza esta semana. Google comprometió hasta USD $40.000 millones en Anthropic, OpenAI presentó GPT 5.5 apenas semanas después de su versión anterior y Google Cloud mostró nueva infraestructura para entrenamiento e inferencia, en un momento en el que la industria parece moverse a un ritmo difícil de seguir incluso para especialistas.
Ese panorama fue discutido en Google Invests $40B Into Anthropic, GPT 5.5 Drops, and Google Cloud Dominates | EP #252, publicado por Peter H. Diamandis, donde se repasaron lanzamientos recientes, alianzas entre grandes laboratorios y proveedores de nube, y la creciente percepción de que la competencia ya no depende solo de quién entrene el mejor modelo.
Para lectores menos familiarizados con este terreno, el punto central es simple. La IA de frontera ya no se define únicamente por nuevas versiones de chatbots. También depende de acceso a centros de datos, electricidad, chips avanzados, capacidad fabril y herramientas capaces de convertir esos modelos en productos empresariales rentables.
Según el análisis presentado, el mercado está entrando en una fase donde la velocidad de despliegue es casi tan importante como la calidad del sistema. En apenas ocho semanas se mencionaron 15 grandes lanzamientos, un volumen que sugiere una carrera abierta entre Estados Unidos y China, con Europa y otras regiones aún muy rezagadas en modelos de frontera.
Google, Anthropic y una apuesta gigantesca por escala
El anuncio más llamativo fue el nuevo compromiso de Google con Anthropic. La compañía acordó invertir USD $10.000 millones de inmediato, sobre una valoración de USD $350.000 millones, y dejó abierta la puerta a otros USD $30.000 millones si la startup cumple ciertos objetivos de rendimiento.
Además del dinero, el acuerdo incluiría 5 gigavatios de capacidad de cómputo basada en TPU durante cinco años. La cifra fue descrita como equivalente a suministrar energía a entre tres y cuatro millones de personas, una comparación que ayuda a dimensionar el tamaño real de la demanda que hoy exige la IA de frontera.
El dato gana peso cuando se coloca junto al acuerdo paralelo entre Amazon y Anthropic. En ese frente, Amazon ya comprometió un total de USD $33.000 millones, incluyendo USD $25.000 millones adicionales sobre los USD $8.000 millones previos, a cambio de que Anthropic gaste al menos USD $100.000 millones en AWS durante la próxima década.
En ese esquema, Anthropic ejecutará Claude sobre chips Trainium de Amazon, mientras AWS también aportará otros 5 gigavatios de capacidad para IA. El resultado es una relación inusual. Anthropic queda estrechamente vinculada a dos gigantes rivales de nube al mismo tiempo, lo que revela hasta qué punto el acceso al cómputo se ha vuelto un insumo estratégico más valioso que la simple exclusividad.
Uno de los puntos más repetidos en la conversación fue que estas valoraciones preferenciales reflejan precisamente eso. Google y Amazon no estarían pagando por Anthropic como lo haría un inversionista financiero tradicional, sino comprando exposición privilegiada a una empresa que necesita muchísima infraestructura y que, según se comentó, podría acercarse a ingresos anuales de entre USD $40.000 millones y USD $70.000 millones al cierre de año si logra obtener suficiente capacidad.
GPT 5.5 entra en escena con foco empresarial y de código
OpenAI también movió el tablero con GPT 5.5, presentado apenas siete semanas después de GPT 5.4. Greg Brockman lo describió como una nueva clase de inteligencia, y parte del valor de la actualización estaría en su arquitectura nativamente multimodal, capaz de procesar texto, audio, video e imágenes dentro de un sistema unificado.
Entre los datos destacados se mencionó un aumento de 37 puntos en razonamiento de contexto largo frente a GPT 5.4. Aunque ambas versiones disponen de ventanas de hasta un millón de tokens, la nueva edición mejoraría de forma sensible la capacidad de recordar y usar información distribuida a lo largo de ese contexto.
OpenAI también reportó una eficiencia de tokens 40% superior con la misma latencia y una reducción de 60% en alucinaciones frente a GPT 5.4. En términos de precios API, GPT 5.5 costará USD $5 por millón de tokens de entrada y USD $30 por millón de tokens de salida, exactamente el doble de la estructura previa de GPT 5.4.
La lectura compartida en el panel fue que GPT 5.5 parece especialmente orientado a reforzar la posición de OpenAI en herramientas de desarrollo, sobre todo en escenarios tipo terminal y asistentes de programación. El benchmark Terminal Bench 2.0 fue citado como uno de los indicadores donde el salto habría sido más visible.
También se destacó el avance en Frontier Math Tier 4, una prueba utilizada como aproximación a problemas matemáticos de nivel profesional. Allí se habló de mejoras cercanas a 1% mensual en los benchmarks más difíciles, una tendencia que, de mantenerse o acelerarse, podría llevar a sistemas capaces de resolver una gran porción de problemas de investigación matemática en pocos años.
Google Cloud presiona con TPUs y casi un millón de GPU Rubin
En paralelo, Google Cloud mostró músculo en su conferencia Cloud Next 2026. La compañía presentó su octava generación de TPUs, con variantes TPU 8T para entrenamiento y TPU 8i para inferencia. Según los datos citados, estos chips serían tres veces más rápidos en entrenamiento y ofrecerían 80% mejor rendimiento por dólar.
El mensaje estratégico es claro. Google quiere posicionarse como la plataforma ideal para la era de agentes de IA, con infraestructura capaz de ejecutar millones de agentes en tiempo real. Sundar Pichai afirmó que Google ya procesa más de 16.000 millones de tokens por minuto y que 75% del código interno de la empresa es escrito por IA.
La firma también anunció que desplegará 960.000 GPU Nvidia Vera Rubin para su nueva instancia A5X de bare metal. Esa nube, según se afirmó, será dos veces más grande que Colossus 2 y 2,4 veces mayor que Stargate Abilene, lo que refuerza la idea de que Google busca combinar chips propios y chips Nvidia en una misma estrategia de dominación de infraestructura.
Otro dato relevante discutido fue una estimación de Epoch según la cual Google ya concentraría aproximadamente una cuarta parte de todo el cómputo de IA del planeta. Si esa referencia es correcta, el liderazgo en infraestructura podría convertirse en una ventaja tan determinante como los propios modelos que corren encima.
El verdadero cuello de botella: chips, energía y fabricación
Aunque la atención pública suele quedarse en el nombre del último modelo, la conversación giró una y otra vez hacia un problema menos visible. La IA está topando con límites físicos. La demanda de chips avanzados, terreno, energía eléctrica y capacidad para montar centros de datos ya condiciona el ritmo real de expansión.
En ese sentido, se insistió en que TSMC sigue siendo un cuello de botella central para todo el sector. La razón es simple. No basta con prometer inversiones o asociarse con hyperscalers si al final del día los semiconductores más avanzados solo pueden fabricarse en un puñado de empresas, principalmente TSMC, Samsung e Intel.
La energía apareció como otro factor inseparable del cómputo. Incluso si una empresa consigue GPU o TPU, todavía necesita terrenos energizados y centros de datos donde instalarlos. Se citó el caso de compañías con hardware disponible, pero sin infraestructura eléctrica suficiente para ponerlo a trabajar a escala.
Ese cambio de foco tiene implicaciones de mercado. Si el cuello de botella está en chips, kernel software, energía y construcción de data centers, entonces la tesis de inversión se desplaza desde las aplicaciones visibles hacia toda la cadena que permite sostenerlas. Es un punto clave para inversionistas en tecnología, infraestructura y, más tangencialmente, para sectores como energía y hardware especializado.
Modelos abiertos, China y la capa de abstracción
La discusión también repasó el avance de modelos abiertos como Kimmy K2.6 de Moonshot AI, descrito como un sistema open-weight y open-source de un billón de parámetros, con activación de 32.000 millones a la vez, 300 agentes en paralelo y capacidad nativa para texto, imagen y video.
Según se comentó, el modelo costaría unas 30 veces menos que varios competidores cerrados y habría sido entrenado por alrededor de USD $4.600.000. Ese contraste avivó el debate sobre si el verdadero valor futuro estará en los pesos del modelo, en el razonamiento en tiempo de inferencia o en la capa de abstracción que coordina múltiples modelos a bajo costo.
También se señaló que hoy el liderazgo visible en modelos está concentrado casi por completo entre Estados Unidos y China. La ausencia de Europa, Japón, India o Reino Unido en la frontera más alta empieza a perfilar una geopolítica de IA dominada por países con mayor acceso a cómputo y cadenas de suministro tecnológicas.
En ese contexto, la idea de usar un modelo premium como orquestador y delegar subtareas a modelos más baratos gana terreno. Para usuarios empresariales y desarrolladores, eso significa que el futuro inmediato podría no depender de elegir una sola IA, sino de combinar varias según costo, seguridad, velocidad y especialidad.
La conclusión implícita es contundente. La carrera por la inteligencia artificial ya no es solamente una carrera por “el mejor modelo”. Es una competencia por capital, chips, electricidad, centros de datos, talento y distribución. Y, al menos por ahora, Google, Anthropic, Amazon y OpenAI parecen dispuestos a gastar sumas históricas para no quedarse atrás.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
OpenAI refuerza la seguridad de ChatGPT con nuevas llaves YubiKey de Yubico
Empresas
Coinbase y Superstate lanzarán fondo de rendimiento con stablecoins orientado al crédito institucional
Empresas
Google lleva su agente IA Gemini a millones de vehículos integrados con su sistema operativo
Empresas