DeepSeek anunció la disponibilidad oficial de DeepSeek-V4 Preview, una nueva familia de modelos abiertos que promete contexto de 1 millón de tokens, mejoras para tareas agénticas, compatibilidad con APIs ampliamente usadas y una estrategia orientada a competir con los principales sistemas cerrados del mercado.
***
- DeepSeek-V4-Pro y DeepSeek-V4-Flash ya están disponibles con contexto de 1M en todos los servicios oficiales.
- La empresa afirma que V4-Pro rivaliza con los mejores modelos cerrados y que V4-Flash prioriza velocidad y bajo costo.
- La API mantiene la misma base_url, pero DeepSeek retirará deepseek-chat y deepseek-reasoner en julio de 2026.
DeepSeek anunció el lanzamiento oficial de DeepSeek-V4 Preview, una nueva generación de modelos de inteligencia artificial de código abierto con la que busca reforzar su posición en la carrera global por sistemas más potentes, baratos y capaces de manejar contextos extensos. La novedad central es que el contexto de 1 millón de tokens pasa a ser el estándar predeterminado en todos los servicios oficiales de la compañía.
La actualización incluye dos variantes principales. Por un lado, DeepSeek-V4-Pro, descrito por la empresa como un modelo con 1,6T parámetros totales y 49B parámetros activos. Por otro, DeepSeek-V4-Flash, orientado a velocidad y eficiencia, con 284B parámetros totales y 13B parámetros activos. Ambos ya pueden probarse en chat.deepseek.com mediante los modos Expert Mode e Instant Mode.
Según detalló la documentación oficial de DeepSeek, la API también fue actualizada y ya está disponible para los nuevos modelos. La empresa publicó además un informe técnico y abrió los pesos de esta familia en Hugging Face, reforzando su apuesta por el ecosistema abierto en un momento en que gran parte del mercado de frontera sigue dominado por soluciones cerradas.
Para los lectores menos familiarizados con este segmento, el tamaño del contexto importa porque define cuánta información puede procesar un modelo de una sola vez. Llevar ese límite a 1 millón de tokens abre la puerta a trabajar con bases documentales extensas, repositorios de código, análisis complejos y flujos agénticos más largos sin fragmentar la tarea en múltiples pasos.
Dos modelos, dos apuestas dentro de la misma estrategia
En su presentación, DeepSeek describió a DeepSeek-V4-Pro como su propuesta más ambiciosa. La compañía aseguró que su rendimiento rivaliza con el de los mejores modelos cerrados del mundo. También indicó que se trata del actual líder entre los modelos abiertos en varios frentes, incluyendo benchmarks de codificación agéntica, conocimiento general y razonamiento en matemáticas, STEM y programación.
La empresa sostuvo que en conocimiento del mundo, V4-Pro lidera entre los modelos abiertos disponibles hoy y que solo queda por detrás de Gemini-3.1-Pro. En razonamiento, afirmó que supera a todos los modelos abiertos actuales en matemáticas, STEM y coding, acercándose al nivel de los principales sistemas cerrados del mercado.
La segunda variante, DeepSeek-V4-Flash, apunta a un perfil más práctico para despliegues con restricciones de costo y latencia. DeepSeek señaló que sus capacidades de razonamiento se acercan mucho a las de V4-Pro y que ofrece un desempeño comparable en tareas agénticas simples, pero con menor tamaño de parámetros, tiempos de respuesta más rápidos y precios de API más rentables.
Ese posicionamiento sugiere una segmentación similar a la que han adoptado otros desarrolladores de IA. Un modelo premium concentra la potencia máxima y otro busca equilibrio entre velocidad, costo y suficiencia técnica. En la práctica, esta separación resulta relevante para startups, equipos de software y empresas que necesitan decidir entre calidad extrema o eficiencia operativa.
El contexto de 1M como eje competitivo
Uno de los puntos más destacados del anuncio fue la promesa de una “era de longitud de contexto de 1M rentable”. DeepSeek atribuye este avance a una nueva arquitectura de atención que combina compresión por token con DSA, o DeepSeek Sparse Attention. Según la empresa, esta estructura reduce de forma drástica los costos de cómputo y memoria asociados al procesamiento de contextos largos.
La relevancia de esa afirmación es técnica y comercial. Los modelos con ventanas contextuales muy amplias suelen exigir grandes recursos de inferencia, lo que eleva costos y limita su adopción real. Si DeepSeek logra sostener un contexto líder a nivel mundial con una estructura más eficiente, eso podría volver más atractiva su oferta para desarrolladores que necesitan procesar grandes volúmenes de información sin pagar una prima excesiva.
DeepSeek presentó ese contexto de 1M no como una función experimental, sino como el nuevo valor predeterminado de todos sus servicios oficiales. Esa decisión busca enviar una señal clara al mercado: la longitud de contexto deja de ser un lujo reservado a versiones especiales y pasa a convertirse en parte del paquete base.
En un entorno donde la IA empresarial se orienta cada vez más a agentes, automatización documental y análisis de repositorios completos, la combinación entre bajo costo y contexto amplio puede convertirse en una ventaja importante. También puede acelerar comparaciones con actores cerrados, que históricamente han competido tanto por calidad de respuesta como por amplitud de contexto.
Optimización para agentes y compatibilidad de la API
Otro eje del anuncio fue el trabajo específico para capacidades agénticas. DeepSeek dijo que V4 está integrado de forma fluida con agentes de IA líderes como Claude Code, OpenClaw y OpenCode. Además, aseguró que esta nueva familia ya impulsa sus propias herramientas internas de coding agéntico.
La referencia a agentes no es menor. En el mercado actual, el foco ya no está solo en chats conversacionales, sino en sistemas capaces de ejecutar tareas de varios pasos, razonar sobre herramientas, escribir código, consultar documentos y producir entregables más complejos. DeepSeek intenta posicionar V4 como infraestructura apta para esa etapa, no solo como un modelo de propósito general.
Desde el punto de vista de implementación, la empresa indicó que los usuarios solo necesitan mantener la misma base_url y actualizar el nombre del modelo a deepseek-v4-pro o deepseek-v4-flash. La API es compatible con las interfaces OpenAI ChatCompletions y Anthropic, lo que reduce barreras de migración para equipos que ya operan sobre esos estándares.
Ambos modelos admiten contexto de 1M y modos duales Thinking y Non-Thinking. Esa dualidad suele apuntar a equilibrar calidad de razonamiento y velocidad de respuesta según el caso de uso. Para desarrolladores y empresas, contar con esa opción dentro de la misma familia puede facilitar la adaptación a tareas distintas sin rehacer toda la arquitectura de integración.
Pesos abiertos, documento técnico y calendario de retiro
Como parte del lanzamiento, DeepSeek publicó el informe técnico de V4 y liberó los pesos abiertos de la familia. Ese gesto fortalece su narrativa de apertura en un momento en que el debate sobre transparencia, reproducibilidad y concentración del poder en IA sigue intensificándose. La compañía busca diferenciarse de competidores que ofrecen sistemas de alto nivel, pero sin acceso abierto a pesos o arquitectura.
La documentación oficial también incluyó un aviso importante para usuarios existentes. Los modelos deepseek-chat y deepseek-reasoner serán retirados por completo y dejarán de estar accesibles después del 24 de julio de 2026 a las 15:59 UTC. Por ahora, ambos redirigen a deepseek-v4-flash en los modos non-thinking y thinking, respectivamente.
Ese calendario da margen para migraciones graduales, pero también confirma que DeepSeek quiere consolidar su oferta alrededor de la nueva familia V4. Para quienes operan productos, agentes o flujos automatizados sobre modelos heredados, la fecha funciona como una señal temprana para revisar compatibilidades y pruebas en producción.
En paralelo, la compañía aprovechó el anuncio para pedir a la comunidad que confíe solo en sus cuentas oficiales al momento de seguir novedades sobre DeepSeek. También aclaró que las declaraciones hechas por otros canales no reflejan sus opiniones. El mensaje sugiere que el grupo intenta controlar mejor su narrativa pública en medio de una atención creciente alrededor de sus desarrollos.
Más allá del lenguaje promocional habitual en este tipo de lanzamientos, el movimiento de DeepSeek resulta relevante por tres razones. Primero, porque combina pesos abiertos con aspiraciones de rendimiento de frontera. Segundo, porque fija el contexto de 1M como estándar y no como extra opcional. Tercero, porque se enfoca en agentes y codificación, dos de las áreas más codiciadas del mercado actual de IA.
En ese marco, el anuncio de DeepSeek V4 Preview Release | DeepSeek API Docs muestra una estrategia orientada a competir no solo por capacidad bruta, sino también por eficiencia, apertura y facilidad de integración. La empresa cerró el comunicado reiterando su compromiso con una visión de largo plazo y con el avance constante hacia su objetivo final de AGI.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
Voltropy presenta LCM, una arquitectura de memoria para IA que supera a Claude Code en contexto largo
Empresas
Gobierno de EE. UU. roza USD $35.400 millones en Intel tras salto bursátil de 22%
China
Alibaba lleva Qwen a los autos chinos y eleva la carrera por la IA a bordo
IA