Anthropic vive una expansión que ya obliga a repensar cómo se mide un negocio de IA. Su CFO, Krishna Rao, aseguró que la empresa pasó de un ritmo de ingresos de USD $9.000 millones a más de USD $30.000 millones en apenas un trimestre, mientras dedica hasta 40% de su tiempo a resolver un problema central: conseguir y asignar cómputo sin perder la frontera tecnológica.
***
- Anthropic afirmó que su run rate de ingresos pasó de USD $9.000 millones al inicio del año a más de USD $30.000 millones al cierre del trimestre.
- La empresa usa chips de Amazon, Google y Nvidia, y sostiene que la flexibilidad de cómputo es una ventaja clave frente a otros laboratorios.
- Su CFO defendió que las leyes de escalado siguen vigentes y que el mayor retorno está en la IA de frontera para clientes empresariales.
La carrera por la inteligencia artificial ya no se libra solo en modelos, productos o adopción. También se define en contratos de energía, centros de datos, chips especializados y en la capacidad de convertir esa infraestructura en ingresos reales. En esa discusión, Anthropic ofreció una de las radiografías más reveladoras de su negocio hasta ahora.
En la conversación How Claude went from $9 billion to $30 billion in one year | CFO explains, del canal Invest Like The Best, el director financiero de Anthropic, Krishna Rao, explicó que la empresa comenzó el año con un run rate de ingresos de unos USD $9.000 millones y cerró el trimestre por encima de USD $30.000 millones. Según Rao, ese salto fue posible por mejoras en los modelos, nuevos productos y una fuerte demanda empresarial.
El ejecutivo describió el cómputo como “la sangre vital” de la empresa y el insumo más importante de todo el negocio. Comprar demasiado puede poner en riesgo la viabilidad financiera. Comprar poco puede impedir atender clientes y quedarse atrás en la frontera tecnológica. Esa tensión, dijo, domina buena parte de la operación diaria de Anthropic.
Rao aseguró que incluso hoy dedica entre 30% y 40% de su tiempo a temas de cómputo. No se trata solo de adquisición, sino también de asignación. La empresa evalúa cuánto necesita para desarrollar modelos, cuánto para uso interno y cuánto para atender clientes, dentro de un negocio que crece de forma exponencial y en el que una mala previsión puede tener consecuencias enormes.
La obsesión por el cómputo y la flexibilidad
Anthropic opera sobre tres grandes plataformas de chips: Tranium de Amazon, TPUs de Google y GPUs de Nvidia. Rao afirmó que la compañía usa estas arquitecturas de forma intercambiable para entrenamiento, desarrollo interno y servicio a clientes, algo que, según su versión, tomó años construir y hoy representa una ventaja operacional relevante.
Para lograrlo, la empresa invirtió en una capa propia de orquestación y en herramientas de bajo nivel, incluidos compiladores. El objetivo es acercarse tanto como sea posible al hardware para exprimir el rendimiento de cada dólar invertido. Rao señaló que esa personalización permite asignar cada generación de chip al tipo de carga de trabajo donde genera mayor retorno.
El ejecutivo sostuvo que Anthropic trabaja de manera estrecha con Annapurna Labs, de Amazon, para influir en la hoja de ruta de los chips. Desde su perspectiva, los modelos de frontera fuerzan al límite estas arquitecturas, y eso exige colaboración directa con proveedores. También explicó que la empresa compara constantemente precio, rendimiento, velocidad y momento de entrega del cómputo que compra.
Ese análisis se vuelve más complejo porque el negocio no funciona con una lógica lineal. Rao habló de un “cono de incertidumbre” para describir cómo pequeños cambios en las tasas de crecimiento semanal o mensual producen resultados radicalmente distintos en un horizonte de uno o dos años. En un negocio así, dijo, pensar de forma lineal es un error.
La empresa modela escenarios y luego retrocede desde ellos para planificar compras. Necesita suficiente capacidad para mantenerse en la frontera, atender clientes y acelerar a sus propios empleados. Rao llegó a decir que si Anthropic retirara el cómputo asignado al uso interno de sus trabajadores, podría generar miles de millones de dólares en ingresos adicionales, pero la empresa prioriza una visión de largo plazo.
Por qué Anthropic cree que estar en la frontera paga más
Uno de los argumentos centrales de Rao fue que los retornos de la inteligencia de frontera son muy altos, sobre todo en el mercado empresarial. A su juicio, cada nueva generación de modelos no solo mejora una especie de “IQ”, sino una inteligencia multidimensional. Importan las tareas de largo horizonte, el uso de herramientas, la velocidad y la capacidad de actuar como agente.
Según explicó, muchos benchmarks tradicionales ya están saturados y por eso la señal más importante viene del uso real. Lo que sus clientes valoran es la capacidad concreta del modelo para resolver problemas. Cuando esa capacidad sube, se desbloquean más casos de uso y se amplía el mercado total direccionable.
Rao usó el propio crecimiento de Anthropic como ejemplo. El paso de un run rate de USD $9.000 millones a más de USD $30.000 millones en apenas un trimestre, dijo, fue habilitado por saltos en la inteligencia de los modelos y por los productos construidos alrededor de ellos. En su visión, ese patrón se observa con especial fuerza en empresas, donde los clientes buscan exprimir al máximo cada nueva mejora.
También rechazó la idea de que los modelos más potentes necesariamente sean mucho menos eficientes. Comparó la intuición popular con pasar de un sedán a un auto deportivo que consume más combustible. En el caso de Anthropic, afirmó, cada nueva generación de Opus mejoró tanto en capacidades como en eficiencia de procesamiento, creando un beneficio doble para clientes y para la propia compañía.
Esa eficiencia también impacta otras áreas, como el refuerzo de modelos. Si la inferencia mejora, explicó, entrenar mediante reinforcement learning dentro de un entorno controlado también se vuelve más eficiente. Por eso la empresa ve una relación muy estrecha entre investigación, producto, costos y expansión comercial.
Leyes de escalado, código escrito por IA y expansión de infraestructura
Rao aseguró que, para Anthropic, las leyes de escalado siguen “vivas y saludables”. Dijo que el progreso se está acelerando y que, internamente, la empresa observa mejoras claras tanto en preentrenamiento como en otras etapas del desarrollo. También señaló que los clientes devuelven información valiosa sobre límites del modelo, y esos puntos débiles se convierten en objetivos de entrenamiento para futuras versiones.
En uno de los pasajes más llamativos, afirmó que hoy más de 90% del código dentro de la empresa es escrito por Claude Code. Incluso, añadió, una parte importante de Claude Code es desarrollada por el propio Claude Code. Para Anthropic, esa retroalimentación es una forma concreta de autoaceleración: los modelos ayudan a construir la siguiente generación de modelos y productos.
Rao matizó que el talento humano sigue siendo esencial. Describió a Anthropic como un laboratorio de investigación antes que cualquier otra cosa. Los modelos ayudan, pero no reemplazan la dirección, la formulación de hipótesis o la búsqueda de nuevas áreas de descubrimiento. En su visión, el mejor resultado surge de combinar talento denso con las mejores herramientas disponibles.
Del lado de infraestructura, el CFO mencionó varios acuerdos recientes. La empresa anunció una asociación con SpaceX para usar la instalación Colossus en Memphis, enfocada especialmente en consumo y prosumidores. También firmó un acuerdo de 5 gigavatios con Google y Broadcom para TPUs a partir de 2027, y otro con Amazon para Tranium por hasta 5 gigavatios, dentro de un compromiso superior a USD $100.000 millones.
Ese cómputo llega en capas, en distintos momentos y con capacidades diferentes. Anthropic compara de forma dinámica cada bloque de capacidad según precio, rendimiento y usos potenciales. Rao sugirió que si la empresa recibiera hoy mucho más cómputo, probablemente podría desplegarlo muy rápido, algo que hace uno o dos años era más difícil por las diferencias entre plataformas.
Precios, rentabilidad y percepción de los inversionistas
En contra de la idea de que la IA se abarata de forma uniforme, Rao defendió una estrategia de precios relativamente estable. Recordó que Anthropic hizo pocos cambios importantes, y destacó la reducción en el precio de la familia Opus cuando lanzó Opus 4.5. El motivo fue que muchos clientes intentaban resolver con Sonnet problemas que requerían Opus, y la empresa quería hacer ese nivel de modelo más accesible.
Según explicó, al bajar el precio no se redujo el negocio. Por el contrario, el consumo aumentó mucho más de lo esperado, en una dinámica que comparó con la paradoja de Jevons. Para Anthropic, la clave está en maximizar el valor entregado al cliente y a la vez obtener un retorno sólido sobre toda la envolvente de cómputo, no sobre una visión simplista de costo marginal por token.
Rao insistió en que medir este negocio como si fuera software tradicional lleva a errores. El cómputo no solo sirve para atender demanda inmediata, sino también para investigación, desarrollo de producto y aceleración interna, todos factores que sostienen ingresos futuros. Por eso, dijo, el retorno correcto debe medirse sobre el gasto total en cómputo y sus efectos a distintos horizontes de tiempo.
En cuanto al capital, señaló que desde su llegada a la empresa Anthropic ha levantado USD $75.000 millones. A eso se suman otros USD $50.000 millones comprometidos a futuro mediante los acuerdos anunciados con Amazon y Google. El ejecutivo sostuvo que ese dinero responde más a la necesidad de anticiparse al “cono de incertidumbre” que a cubrir pérdidas operativas inmediatas.
También relató cómo ha cambiado la conversación con los inversionistas. Cuando se incorporó, la empresa cerraba su Serie D y todavía existían dudas sobre la necesidad de un modelo de frontera, la compatibilidad entre seguridad y escala, o si Anthropic debía copiar la estructura comercial de una firma de software empresarial clásica. Más tarde, durante la Serie E, la noticia de DeepSeek introdujo nuevas preguntas sobre costos y competencia.
Hoy, dijo, la mayor dificultad para muchos inversionistas sigue siendo entender el carácter fungible del cómputo. Un mismo recurso puede usarse por la mañana para inferencia y por la tarde para desarrollo de modelos. Esa flexibilidad, afirmó, no encaja bien en los marcos clásicos de análisis financiero, pero es justamente una de las razones por las que el negocio puede crecer con tanta velocidad.
Seguridad, gobierno y la visión de un colaborador virtual
Rao defendió que la apuesta de Anthropic por seguridad, interpretabilidad y alineación no solo responde a su misión, sino que terminó reforzando su negocio. Explicó que la empresa vende ya a nueve de las diez mayores compañías del Fortune 10, y que esos clientes necesitan confiar en el proveedor cuando entregan datos, flujos internos y tareas sensibles.
En esa línea, habló del lanzamiento de Mythos, un modelo que, según dijo, no debe entenderse solo como una herramienta para ciberseguridad, aunque en ese ámbito mostró un salto muy fuerte. Como ejemplo, comentó que una versión anterior detectó 22 vulnerabilidades en una base de código abierta, mientras que Mythos encontró 250. Esa capacidad llevó a un despliegue por fases para limitar riesgos de uso ofensivo.
El CFO también abordó la relación con el gobierno de Estados Unidos. Dijo que Anthropic cree que la regulación tiene un papel en el desarrollo futuro de estos sistemas y que la empresa mantiene una postura “America first”, orientada a respaldar a Estados Unidos y a otras democracias. Aun así, remarcó que debe existir un equilibrio entre innovación rápida y marcos responsables de despliegue.
Mirando hacia adelante, Rao describió la frontera no como un modelo aislado, sino como la construcción de un “colaborador virtual”. La idea es un sistema con contexto organizacional, memoria, acceso a herramientas y capacidad de trabajar durante largos horizontes sobre tareas e ideas complejas. Desde su punto de vista, la codificación fue apenas el primer caso de uso masivo. La siguiente expansión será hacia todo el trabajo del conocimiento.
Entre los riesgos que podrían mover a Anthropic hacia la parte baja de su cono de escenarios, mencionó tres: una difusión más lenta de los casos de uso dentro de grandes organizaciones, un eventual freno en las leyes de escalado y la posibilidad de perder la frontera frente a rivales. Aun así, su tono general fue marcadamente optimista, en especial sobre salud y biotecnología, donde cree que la IA puede acelerar descubrimientos y tratamientos de forma radical.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
Poppy debuta con un asistente de IA que quiere ordenar tu vida digital
IA
WhatsApp suma modo incógnito para hablar con Meta AI en privado
Empresas
Anthropic supera a OpenAI en clientes empresariales, según nuevos datos de Ramp
Empresas