Por Canuto  

La industria de inteligencia artificial parece entrar en una nueva etapa. Mientras Google, Amazon, Microsoft y Meta reportan un crecimiento impulsado por la demanda de cómputo y tokens, una nueva categoría de infraestructura empieza a ganar tracción: el llamado harness as a service, una capa que promete volver más útiles, confiables y accesibles a los agentes de IA.
***

  • Google lideró la temporada de resultados con un crecimiento de 63% interanual en Google Cloud y una fuerte expansión de Gemini y búsqueda.
  • Amazon, Microsoft y Meta también mostraron señales de fuerte demanda de IA, aunque con diferencias en percepción del mercado y disciplina de gasto.
  • El lanzamiento de Cursor SDK reavivó el debate sobre el valor del harness, es decir, el entorno operativo que convierte a un modelo en un agente capaz de ejecutar trabajo real.


La conversación sobre inteligencia artificial ya no gira solo en torno a qué modelo es más potente. Una parte creciente del debate se está desplazando hacia la infraestructura que rodea a esos modelos y que les permite actuar como agentes útiles, persistentes y capaces de ejecutar tareas reales.

Ese cambio de foco coincidió esta semana con una fuerte tanda de resultados de las grandes tecnológicas. En paralelo, nuevos productos de OpenAI, Anthropic, Microsoft y Cursor reforzaron la idea de que la próxima capa competitiva en IA podría ser el llamado harness as a service.

De acuerdo con el episodio How Harness-as-a-Service Will Change Agents, del canal The AI Daily Brief: Artificial Intelligence News, el auge actual de agentes no depende solo de avances en modelos como Opus 4.5 o GPT-5.2. También depende de la calidad del runtime, el sandbox, la memoria, la orquestación de herramientas y la observabilidad que los acompañan.

Big Tech muestra que la demanda de IA ya no es una hipótesis

La temporada de resultados dejó una señal común: la demanda de infraestructura para IA sigue acelerándose. Según el análisis citado en el programa, Google Cloud creció 63% interanual, Microsoft Azure avanzó 40%, los ingresos de Meta subieron 33% y AWS aumentó 28%.

Google fue presentado como el gran ganador de la jornada. La compañía reportó un crecimiento de ingresos de 22% en la línea superior, mientras Google Cloud avanzó 63% en un año. También informó un backlog de nuevos pedidos por USD $460.000 millones, frente a USD $240.000 millones al cierre del cuarto trimestre.

Parte de ese impulso fue atribuida a su nuevo acuerdo con Anthropic, aunque el dato también fue leído como evidencia de una demanda extraordinaria por GPU. A esto se sumó el crecimiento de Gemini, donde Google reportó un alza de 40% trimestral en clientes empresariales pagos.

La infraestructura de la empresa ya procesa 16.000 millones de tokens por minuto, un avance de 60% frente al trimestre previo. Incluso búsqueda, negocio que muchos consideraban amenazado por la IA conversacional, registró un aumento de 19% interanual en ingresos.

Google cerró el período con USD $62.600 millones en utilidad neta, un salto de 81% interanual. Sundar Pichai dijo a analistas que la IA se convirtió en el mayor viento de cola para la nube y afirmó que las soluciones empresariales de IA fueron, por primera vez en el primer trimestre, el principal motor de crecimiento de cloud.

El ejecutivo también reconoció una limitación relevante. Señaló que Google enfrenta restricciones de cómputo en el corto plazo y que los ingresos de la nube habrían sido mayores si la empresa hubiera podido satisfacer toda la demanda.

En inversión de capital, Google elevó ligeramente su guía anual desde un rango de USD $175.000 millones a USD $185.000 millones hasta uno de USD $180.000 millones a USD $190.000 millones. Sin embargo, en el primer trimestre solo ejecutó USD $35.700 millones, una cifra que el mercado interpretó como señal de disciplina financiera. La acción avanzó 7% en operaciones nocturnas.

Amazon, Microsoft y Meta exhiben fortalezas, pero también tensiones

Amazon también entregó resultados sólidos. Los ingresos crecieron 17% interanual y la utilidad neta subió 77%, aunque la propia compañía atribuyó parte del aumento a ingresos antes de impuestos asociados a su inversión en Anthropic.

AWS avanzó 28% frente al año anterior. El dato confirmó la recuperación de su negocio de nube luego de haber tocado un piso de 12% de crecimiento en 2023. La cifra superó expectativas, aunque quedó opacada por la comparación con el 63% de Google Cloud.

La presión vino por el lado del gasto. Amazon informó que añadió más capacidad de servidores que cualquier otra compañía durante 2025 y que planea acelerar todavía más la construcción este año. Su gasto de capital en el trimestre fue de USD $43.200 millones.

Esa cifra la mantiene cerca del objetivo anual de USD $200.000 millones y representa un salto de 60% interanual. También fue el mayor monto absoluto entre los cuatro grandes hyperscalers analizados. Como consecuencia, el flujo de caja libre pasó de casi USD $26.000 millones en el mismo trimestre del año pasado a solo USD $1.200 millones en este período.

Andy Jassy defendió la estrategia y dijo que la compañía seguirá invirtiendo para no quedarse atrás frente a la demanda. Añadió que gran parte del nuevo suministro ya está comprometido, lo que respaldaría la rentabilidad futura de esas inversiones. En ese contexto, el reciente acuerdo de OpenAI con AWS, además de la relación con Anthropic, refuerza esa lectura.

Jassy también destacó la recepción de los chips propios de Amazon. Aseguró que existe tanta demanda por Trainium que varias compañías consumirían todo lo que la firma produzca, y agregó que, si el negocio de silicio personalizado registrara ingresos de AWS como una unidad independiente, estaría en USD $50.000 millones de ARR. Según su estimación, ya sería una de las tres mayores operaciones de chips para centros de datos del mundo.

Microsoft quedó en una zona media. Reportó ingresos por USD $82.900 millones, con un crecimiento interanual de 18%, y Azure avanzó 39%, en línea con las expectativas. Amy Hood proyectó que la tasa se mantendría cerca de 40% en el segundo trimestre.

La compañía elevó su guía de CapEx en USD $25.000 millones, hasta USD $190.000 millones para el año. Hood aclaró que el ajuste respondió por completo a mayores precios de componentes y no a más proyectos de centros de datos. En productos, Satya Nadella dijo que Copilot ya suma 20 millones de asientos pagos empresariales, frente a 15 millones en enero.

Nadella añadió que el compromiso semanal de uso ya está al nivel de Outlook para muchos usuarios. Sobre la pérdida de exclusividad en el acceso a modelos de OpenAI, restó dramatismo y afirmó que Microsoft posee un modelo frontier sin regalías, con derechos de propiedad intelectual y acceso garantizado hasta 2032.

Meta, por su parte, volvió a mostrar una expansión notable del negocio, pero sin convencer al mercado sobre su ritmo de inversión. La empresa reportó ingresos trimestrales de USD $56.300 millones, un avance de 33% interanual, y superó previsiones tanto en ingresos como en utilidad neta.

Sin embargo, volvió a subir su previsión de gastos de capital para el año desde USD $135.000 millones a USD $145.000 millones. La empresa explicó que el alza responde a mayores precios de componentes y costos adicionales de centros de datos. También informó una leve caída trimestral en usuarios activos diarios, la primera desde que comenzó a publicar esa métrica en 2019.

Mark Zuckerberg defendió la expansión y dijo a inversionistas que todas las señales internas y del resto de la industria les dan confianza en esa apuesta. Susan Li añadió que Meta también sufre escasez de cómputo y admitió que la compañía ha subestimado sus necesidades, incluso después de aumentar capacidad de forma significativa. Aun así, el mercado castigó la acción con una caída de 5% en la sesión nocturna.

Qué es harness as a service y por qué podría cambiar la era de agentes

Más allá de los balances, el foco principal del episodio estuvo en una idea que gana terreno: el harness as a service. El concepto apunta a una nueva categoría de infraestructura donde una empresa ofrece acceso a su runtime para agentes, del mismo modo en que AWS vende cómputo o Stripe vende rieles de pago.

En términos simples, el harness es el entorno operativo que convierte a un modelo de lenguaje en algo capaz de trabajar. Incluye memoria persistente, habilidades reutilizables, protocolos como MCP y A2A, sandboxes de ejecución, capas de observabilidad, gestión de errores, compresión de contexto y aprobaciones cuando son necesarias.

El programa planteó que el desarrollo de agentes ha pasado por tres fases. La primera estuvo centrada en los pesos del modelo, donde el progreso dependía de modelos más grandes, más datos y mejor entrenamiento. La segunda fase se enfocó en el contexto, con prompt engineering, few-shot, chain of thought y RAG.

La tercera, según el resumen citado de Akshay, es la de harness engineering. Aquí la pregunta ya no es solo qué decirle al modelo, sino en qué entorno debe operar. En ese marco, la inteligencia deja de estar ubicada únicamente dentro del modelo y pasa a distribuirse entre el modelo y el sistema que lo rodea.

Un ejemplo es un agente de programación encargado de implementar una función, correr pruebas y abrir un pull request. Sin un harness, el modelo debe sostener la estructura del repositorio, las convenciones del proyecto, el estado del flujo y las herramientas dentro de un prompt frágil. Con un harness, parte de esa complejidad se vuelve persistente y estructurada.

El argumento es importante porque explica por qué dos modelos similares pueden rendir de forma distinta según el entorno en el que operen. Sam Altman, en una entrevista citada en el episodio, dijo que es difícil exagerar cuán crítico es el harness y afirmó que ya no considera al harness y al modelo como elementos totalmente separables.

Cursor SDK y el paso desde el bricolaje hacia plataformas listas para usar

El caso que disparó la discusión fue el lanzamiento del Cursor SDK. La plataforma, descrita por Li Robinson como una forma de construir agentes locales y modificables con cualquier modelo o de lanzar productos sobre agentes administrados en la nube, encapsula varias capas complejas del trabajo con agentes.

El SDK maneja el harness, el sandboxing, el uso de computadora, videos de demostración, la integración con GitHub y otros elementos. En vez de obligar a los desarrolladores a ensamblar todo desde cero, les permite enfocarse en elegir el modelo, decidir a qué herramientas accederá el agente y definir la tarea que debe ejecutar.

El análisis comparó este cambio con la transición desde la computación de aficionados hacia la era de la PC. En los primeros momentos, construir un sistema implicaba ensamblar piezas, configurar cada capa y resolver fallos manualmente. Ahora empiezan a surgir servicios que empaquetan esa complejidad.

La tesis es que algo similar ocurre con los agentes. Herramientas abiertas como Open Claw habrían permitido experimentar, pero exigían elegir el modelo, escribir prompts del sistema, definir herramientas, cablear el loop del agente, manejar estado, desplegar, monitorear y corregir errores. El harness as a service reduce esa carga y abre la puerta a nuevos perfiles de creadores.

Ese punto es clave porque, según el episodio, la audiencia capaz de construir ya no se limita a programadores tradicionales. En un mundo donde los agentes pueden escribir buena parte del código y asistir en infraestructura, usuarios no técnicos pueden orquestar productos sobre estas nuevas plataformas con ayuda de otros modelos.

Entre los ejemplos mencionados estuvo el de Jack Driscoll, quien construyó un agente de Cursor integrado en Gmail. Desde la bandeja de entrada, el sistema puede leer un hilo de correos, llevarlo al contexto del agente, modificar código o resolver un problema y devolver el resultado al chat. La diferencia, explicó Driscoll, es que Cursor SDK no se limita a llamar un modelo con herramientas, sino que expone el mismo runtime de agente de programación que ya usa Cursor.

También se citó a Tejas Vavery, quien desarrolló un agente para detectar errores en un código de producción mientras observa cómo se comporta la aplicación en una ventana de navegador. Su objetivo es cerrar el ciclo de retroalimentación, ya que los agentes actuales pueden escribir código y correr pruebas, pero no siempre detectan problemas de interfaz, integración o estado real de una sesión.

Otro caso fue el de Robert Brochery, quien usó el SDK para insertar un agente de Cursor dentro de una extensión de Chrome orientada a triage de TI. La idea es que usuarios no técnicos puedan volcar código o contexto desde el navegador a un ticket, en lugar de describir el error a ciegas.

El harness también cambia el rendimiento de los modelos

La relevancia del entorno no es solo conceptual. Un reporte de Endor Labs citado en el programa encontró que GPT-5.5 operando dentro del harness de Cursor marcó un nuevo récord en su benchmark de seguridad y corrección.

La combinación de Cursor y GPT-5.5 obtuvo 23,5% en la sección de seguridad, apenas por encima del anterior líder, que era Cursor con Opus 4.7 en 22,9%. Ambos resultados quedaron algunos puntos por encima de Opus 4.7 en Claude Code y GPT-5.5 en Codex, sus harnesses nativos.

En funcionalidad, el efecto fue todavía más visible. Opus pasó de 87,2% a 91,1% al cambiar a Cursor, mientras GPT-5.5 avanzó de 61,5% a 87,2%. Endor Labs resumió la conclusión con una idea simple: mismo modelo, misma semana, dos harnesses, dos resultados funcionales distintos.

El presentador añadió que Alex Volkov, del podcast Thursday AI, encontró señales parecidas en pruebas con WolfBench AI. Allí, el harness de Cursor mostró el mejor rendimiento para GPT-5.5 y se mantuvo a la par de Claude Code al ejecutar Opus 4.7.

La implicación es amplia. Si el harness altera de forma tan visible la capacidad operativa de un modelo, la competencia en IA podría entrar en una etapa donde la ventaja no se juegue solo en el laboratorio de modelos, sino también en la arquitectura de producto y ejecución que rodea a esos modelos.

En conjunto, el panorama descrito por el episodio es claro. La demanda por IA ya impacta de lleno en ingresos, backlog, construcción de centros de datos y consumo de chips. Al mismo tiempo, la capa de harness empieza a perfilarse como una nueva infraestructura estratégica para la economía de agentes.

Si esa tesis se consolida, el próximo salto en IA podría no venir únicamente de un modelo más grande o más barato. Podría venir de entornos mejor diseñados, capaces de volver a los agentes más confiables, más útiles y mucho más accesibles para empresas y creadores fuera del núcleo técnico.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín