Anthropic lanzó un “avance de investigación” que permite acelerar Claude Opus 4.6 con el comando /fast en Claude Code y en la API. La mejora promete una versión 2,5 veces más rápida, pero con un costo que puede multiplicarse hasta 6x y que, combinado con contexto de 1.000.000 de tokens, eleva los precios a niveles poco comunes incluso en modelos de frontera.
***
- Anthropic habilitó “/fast” para usar una variante más rápida de Claude Opus 4.6 en Claude Code y también en su API.
- El modo rápido cuesta 6 veces la tarifa normal: de USD $5/millón (entrada) y USD $25/millón (salida) a USD $30/millón y USD $150/millón.
- Hay 50% de descuento hasta el 16 de febrero y, con contexto de 1.000.000 de tokens, los multiplicadores también aplican al modo rápido.
🚨 Aumentan costos de Claude Opus 4.6 con /fast
Anthropic activa el modo /fast que incrementa la velocidad 2.5x pero con un coste 6 veces mayor.
Los precios suben a USD $30/m y USD $150/m para entrada y salida respectivamente.
Hasta el 16 de febrero hay un 50% de descuento,… pic.twitter.com/MJVoGI4R1M
— Diario฿itcoin (@DiarioBitcoin) February 9, 2026
Anthropic presentó un nuevo “avance de investigación” que apunta a resolver una de las quejas más frecuentes en el uso cotidiano de modelos de frontera: la latencia. Según reportó el bloguero y desarrollador Simon Willison, la compañía ahora permite acceder a una variante más rápida de Claude Opus 4.6 mediante el comando /fast en Claude Code, y también como una opción disponible a través de su API.
La propuesta, sin embargo, llega acompañada de un mensaje claro para usuarios y equipos de producto: la velocidad tiene un precio premium. Willison explicó que el modo rápido cuesta seis veces más que las tarifas habituales de Opus, una diferencia que puede alterar de forma material los presupuestos de quienes integran estos modelos en flujos de trabajo intensivos, especialmente si el uso se mide en millones de tokens al día.
El anuncio aparece en un momento en que la industria de IA compite no solo por precisión, sino por la experiencia de uso. En la práctica, tiempos de respuesta más cortos pueden traducirse en mayor productividad para desarrolladores, mejor interacción en asistentes y menores fricciones en herramientas que dependen de conversaciones largas con el modelo.
La noticia se difundió el 7 de febrero de 2026, cuando Willison publicó su reseña sobre el cambio y subrayó que se trata de un experimento temprano. En el ecosistema de modelos avanzados, esa etiqueta suele implicar ajustes continuos en disponibilidad, desempeño y precios, por lo que el mercado seguirá de cerca cómo evoluciona la iniciativa.
Qué es el modo rápido (/fast) y dónde se activa
De acuerdo con la información reseñada por Willison, el acceso a esta variante se realiza escribiendo /fast en Claude Code. La misma opción también está disponible para quienes consumen el modelo desde la API, lo que abre la puerta a integraciones en productos de terceros y a pipelines automatizados que requieren respuestas más ágiles.
Para lectores menos familiarizados con estos entornos, Claude Code es una herramienta orientada a trabajo con código, donde un asistente basado en Claude puede ayudar a generar, revisar o refactorizar software. En ese tipo de tareas, la rapidez de respuesta es crítica, porque el usuario suele iterar muchas veces sobre el mismo problema y una demora de segundos puede acumularse rápidamente.
En el plano técnico, Anthropic calificó el despliegue como un experimento temprano. La compañía no detalló en la documentación enlazada, según Willison, cuánto mejora la velocidad en términos exactos de latencia, lo que deja a los usuarios con una promesa general y una referencia indirecta a comunicaciones en redes sociales.
Aun así, la disponibilidad del modo rápido en API sugiere una intención de uso más amplio que un simple atajo para usuarios avanzados. La API suele ser el canal para empresas, startups y equipos de ingeniería que monetizan o escalan sus aplicaciones, por lo que cualquier cambio de precios o rendimiento puede impactar estrategias comerciales y costos operativos.
El salto de precios: de tarifas estándar a un múltiplo de 6x
Willison indicó que Claude Opus suele costar USD $5/millón de tokens de entrada y USD $25/millón de tokens de salida. Con el nuevo modo rápido, el precio sube a USD $30/millón de entrada y USD $150/millón de salida, lo que representa un incremento de seis veces frente al esquema estándar.
La diferencia es particularmente relevante en aplicaciones donde la salida es abundante, como asistentes que redactan textos extensos o herramientas que generan reportes largos. En esos casos, el componente de salida suele dominar la factura, y pasar de USD $25/millón a USD $150/millón puede elevar drásticamente el costo por usuario o por tarea.
En la práctica, este enfoque plantea un dilema típico de infraestructura: pagar más para reducir tiempos. Algunas organizaciones podrían ver el gasto como una inversión en productividad, sobre todo si el modelo se usa como “copiloto” en tareas repetitivas, pero otras podrían optar por mantener el modo estándar y optimizar prompts o flujos de trabajo para mitigar la latencia.
Otro punto a considerar es el efecto en presupuestos de investigación y prototipado. Cuando el costo por token se dispara, iterar rápidamente deja de ser solo una cuestión de velocidad técnica y se convierte en un tema financiero, con decisiones sobre cuánto experimentar y qué funcionalidades priorizar.
Descuento temporal: 50% hasta el 16 de febrero de 2026
La nota reseñada por Willison agrega un incentivo de corto plazo: existe un 50% de descuento hasta el final del 16 de febrero de 2026. Bajo esa promoción, el modo rápido costaría un múltiplo efectivo de 3x frente al precio normal, un alivio temporal que puede impulsar pruebas internas y evaluaciones comparativas.
Este tipo de ventana promocional suele usarse para acelerar la adopción y recolectar señales de uso. En un “experimento temprano”, un mayor volumen de usuarios permite detectar cuellos de botella, patrones de tráfico y escenarios donde la propuesta de valor de la velocidad se vuelve más clara.
También puede influir en la narrativa de mercado. Un descuento hasta una fecha definida funciona como presión para decidir rápido, y en equipos con calendarios cerrados, ese plazo puede coincidir con sprints de producto o ciclos de entrega que faciliten justificar una prueba pagada.
El final del descuento, sin embargo, reabre la discusión del costo real. Si la tarifa regresa al múltiplo de 6x, muchas evaluaciones deberán considerar si la mejora de latencia se mantiene estable y si el beneficio es suficiente para sostenerlo en operación continua.
¿Cuánto más rápido es? La referencia de 2,5 veces en redes sociales
Willison destacó que la documentación enlazada no especifica el aumento de velocidad. En ausencia de cifras oficiales en ese material, el autor citó una comunicación en Twitter donde Claude afirma que sus equipos han estado construyendo con una versión 2,5 veces más rápida de Claude Opus 4.6.
Según la misma cita, esa variante ahora se pone a disposición como un experimento temprano a través de Claude Code y la API. Es decir, el argumento central para justificar el sobreprecio no es un cambio menor, sino una mejora significativa en tiempos de respuesta, al menos desde la perspectiva comunicada por la propia organización detrás del modelo.
Aun así, el término “2,5 veces más rápida” puede interpretarse de distintas formas. Puede referirse a una reducción promedio de latencia, a mejoras en ciertos tipos de solicitudes o a condiciones internas de prueba, por lo que el desempeño real en producción dependerá del volumen, del tamaño de los prompts y de la carga del sistema.
Para usuarios finales, la percepción de velocidad también tiene matices. No es lo mismo recortar unos segundos en una respuesta breve que acelerar procesos largos de análisis o generación, donde el modelo produce grandes cantidades de texto y el tiempo total depende de la tasa de salida.
Contexto ampliado: de 200.000 a 1.000.000 de tokens y su impacto en costos
La nota también recuerda un dato clave sobre capacidades de contexto. Willison señaló que Claude Opus 4.5 tenía un límite de contexto de 200.000 tokens, mientras que la versión 4.6 ofrece la opción de ampliarlo a 1.000.000 de tokens, aunque con un esquema de precio diferenciado.
Según el reporte, al activar ese aumento de contexto se aplica un multiplicador de 2x al precio de entrada, lo que llevaría la tarifa a USD $10/m. En paralelo, se aplica un multiplicador de 1,5x al precio de salida, llevando el valor a USD $37,50/m, una vez que la entrada supera los 200.000 tokens.
Este detalle es relevante para casos de uso como análisis de documentos extensos, auditorías de repositorios grandes o sesiones con memoria larga, donde el contexto acumulado permite razonamientos más completos. El beneficio funcional existe, pero el costo se vuelve parte del diseño del producto, porque cada token adicional puede traducirse en un gasto inmediato.
Willison remarcó que estos multiplicadores también se aplican al modo rápido. En otras palabras, la combinación de “más velocidad” y “más contexto” puede elevar la factura a niveles muy altos para aplicaciones que dependan de ambas características de manera simultánea.
El escenario más caro: /fast más 1.000.000 de tokens tras el 16 de febrero
El cálculo más extremo que presenta Willison ocurre después de terminado el descuento del 16 de febrero de 2026. En ese escenario, el modo rápido vuelve a su tarifa completa y, si además se usa el contexto de 1.000.000 de tokens bajo los multiplicadores descritos, el costo puede subir a USD $60/m de entrada y USD $225/m de salida.
En términos de estrategia, esto dibuja una segmentación clara. El modo rápido con contexto máximo apunta a quienes necesitan el “mejor y más rápido” modelo para tareas puntuales de alto valor, donde la respuesta inmediata o el análisis profundo justifican un costo elevado por operación.
Para la mayoría de equipos, la pregunta será cuándo activar estas opciones. En aplicaciones comerciales, puede tener sentido reservar el modo rápido para momentos críticos, como interacciones premium, ventanas de tiempo limitadas o flujos internos donde el ahorro de minutos se traduzca en dinero real.
La nota de Willison, publicada el 7 de febrero de 2026 a las 11:10 pm, deja un mensaje final implícito: la carrera por modelos de frontera no solo se mide en capacidades, sino en la economía de acceso. A medida que aparecen modos “turbo” con tarifas multiplicadas, la optimización de prompts y el control de contexto se vuelven tan importantes como la selección del modelo.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
China sanciona a empresas por suplantar servicios de IA como ChatGPT y DeepSeek
Reddit ve en la IA generativa la próxima gran oportunidad para su buscador
Acciones de Bitfarms repuntan culminar transición de minería Bitcoin al sector de la IA