Subquadratic presentó SubQ 1M-Preview, un nuevo modelo de lenguaje que, según la empresa, abandona el escalado cuadrático típico de los transformers y lo reemplaza por una arquitectura totalmente subcuadrática. La startup asegura que este enfoque permite procesar contextos mucho más largos, acelerar la inferencia y reducir costos sin sacrificar rendimiento frente a modelos de frontera.
***
- SubQ 1M-Preview es presentado como el primer LLM totalmente subcuadrático, con cómputo que crece linealmente con la longitud del contexto.
- La empresa afirma resultados competitivos en RULER 128K, MRCR v2 y SWE-Bench Verified frente a Claude Opus, GPT y Gemini.
- Subquadratic también anunció acceso anticipado a su API, SubQ Code y SubQ Search, además de una ronda seed por USD $29 millones.
Los transformers han dominado la inteligencia artificial moderna durante años. Esa arquitectura, base de sistemas conversacionales y herramientas de generación de texto, hizo posible gran parte del salto reciente en comprensión del lenguaje, razonamiento y automatización cognitiva.
Pero también arrastra una limitación central. Su costo computacional crece de forma cuadrática a medida que aumenta el contexto, lo que encarece el uso de entradas extensas y complica que los modelos aprovechen de forma consistente toda la información disponible.
En ese escenario, la startup Subquadratic anunció el lanzamiento de SubQ 1M-Preview, descrito por la compañía como el primer gran modelo de lenguaje construido sobre una arquitectura totalmente subcuadrática. De acuerdo con la empresa, eso permite que el cómputo crezca linealmente con la longitud del contexto.
La propuesta apunta a un cuello de botella muy conocido en la industria. En los transformers tradicionales, cada token se compara con todos los demás tokens de la entrada. Esa dinámica multiplica el número de interacciones conforme crecen los datos y termina elevando el costo, el tiempo de inferencia y la complejidad de despliegue.
Qué problema busca resolver SubQ
Subquadratic sostiene que la industria ha dedicado enormes recursos a construir alrededor de esa restricción, en vez de eliminarla desde el diseño del modelo. Por eso hoy son comunes las arquitecturas con recuperación externa, fragmentación de documentos, técnicas de prompt engineering y otros sistemas auxiliares.
Ese enfoque ha dado origen a los llamados sistemas RAG, que utilizan motores de búsqueda para seleccionar solo una pequeñaparte del corpus antes de enviarla al modelo. La razón es práctica: pasar la base completa de información suele ser demasiado costoso o directamente inviable.
Según explicó la compañía en su presentación oficial, los sistemas que ya operan con millones de tokens tienden a ser frágiles, caros y complejos de construir. En ese contexto, SubQ fue presentado como una alternativa capaz de combinar ventanas de contexto muy amplias con mayor eficiencia computacional.
La empresa afirma que su modelo logra a la vez contexto significativamente mayor, precisión de nivel de frontera en pruebas de aguja en el pajar y copia exacta, inferencia más rápida y costos sustancialmente menores. Subquadratic sostiene que, históricamente, intentar volver subcuadráticos a estos modelos implicaba perder precisión o desempeño, un compromiso que asegura haber superado.
Benchmarks y cifras divulgadas por la empresa
Como parte del anuncio, Subquadratic publicó varios resultados comparativos. En el benchmark RULER 128K, una prueba estándar para razonamiento sobre entradas extensas, SubQ 1M-Preview obtuvo 95% de precisión, frente a 94,8% para Claude Opus 4.6.
La compañía también afirmó que su sistema de Sparse Attention es 52 veces más rápido que FlashAttention en su comparación a nivel de arquitectura, mientras requiere 63% menos cómputo. En conjunto, la firma sostiene que estos datos respaldan una combinación de precisión de contexto largo con una atención mucho más eficiente.
En MRCR v2, una prueba enfocada en la recuperación y el razonamiento sobre múltiples piezas de información dispersas a lo largo de un contexto amplio, SubQ 1M-Preview registró un resultado de investigación de 83 y un puntaje verificado por terceros para el modelo de producción de 65,9.
Con esas cifras, la empresa indicó que su modelo se compara favorablemente con otros sistemas de frontera, entre ellos Claude Opus 4.7 con 32,2, GPT 5.5 con 74 y Gemini 3.1 Pro con 26,3. Además, reportó un puntaje de 81,8 en SWE-Bench Verified, frente a 80,8 para Opus 4.6 y 80,0 para Deepseek 4.0 Pro.
Subquadratic aseguró además que su modelo de investigación funciona con hasta 12 millones de tokens. La empresa añadió que, en esa escala, su arquitectura reduce el cómputo de atención en casi 1.000 veces en comparación con otros modelos de frontera. También afirmó que otros sistemas se degradan mucho antes de su límite declarado de 1 millón de tokens.
Productos anunciados en la beta privada
Junto con el modelo, la empresa anunció tres vías de acceso inicial bajo beta privada. La primera es su API, orientada a desarrolladores y equipos empresariales que requieran uso de contexto completo.
La segunda es SubQ Code, un agente de programación disponible mediante interfaz de línea de comandos. Según la compañía, esta herramienta puede cargar bases de código completas en una sola ventana de contexto y permitir que un desarrollador planifique, ejecute y revise tareas sobre un repositorio entero en una sola pasada.
Subquadratic plantea que ese enfoque reduce la sobrecarga de coordinación propia de sistemas multiagente. En vez de dividir tareas entre múltiples instancias con fragmentos parciales del código, la idea es que un solo sistema conserve visión integral del proyecto.
La tercera herramienta anunciada es SubQ Search, descrita como una solución de búsqueda de contexto largo con capacidades de investigación profunda y velocidad de chatbot. La empresa no reveló precios en este anuncio, pero sí dejó claro que el foco comercial inicial está en desarrolladores, empresas y flujos de trabajo intensivos en información.
Por qué la empresa considera que su avance es relevante
Para lectores menos familiarizados con la arquitectura de IA, el concepto de subcuadrático apunta a reducir la tasa de crecimiento del costo de procesamiento cuando el contexto se expande. En modelos convencionales, más texto no solo implica más datos, sino una explosión de comparaciones internas.
Subquadratic argumenta que romper esa dinámica cambia el espacio de diseño para nuevas aplicaciones. Entre los casos mencionados por la empresa aparecen bases de código completas, colecciones voluminosas de documentos, hojas de cálculo extensas, tablas de bases de datos e historiales de interacción prolongados.
La startup también sostiene que, al ampliar la frontera del contexto, disminuye la necesidad de pipelines de recuperación y de ciertos flujos de trabajo agénticos. En otras palabras, más información podría procesarse de una sola vez, sin depender tanto de mecanismos externos para seleccionar fragmentos relevantes.
La compañía fue más allá y afirmó que, a 50 millones de tokens, el diseño de aplicaciones de IA cambiaría de forma fundamental. En esa visión, los modelos podrían conservar continuidad a lo largo de horizontes temporales más amplios y habilitar productos que dependan de estado persistente y razonamiento más profundo.
Equipo, financiamiento y competencia
Subquadratic también aprovechó el anuncio para destacar el perfil de su equipo. La empresa señaló que cuenta con 11 investigadores con doctorado e ingenieros de investigación con experiencia previa en Meta, Google, Oxford, Cambridge, ByteDance, Adobe y Microsoft.
La firma indicó que su equipo de investigación incluye doctores e investigadores publicados procedentes de Meta, Google, Oxford, BYU, ByteDance, Adobe y Cambridge. Según la empresa, el trabajo consistió en rediseñar desde cero cómo opera la atención, con una arquitectura pensada para ser subcuadrática desde primeros principios.
En la cúpula ejecutiva aparece Justin Dangel como cofundador y CEO. La empresa lo describe como un fundador serial con cinco experiencias previas al frente de compañías en health tech, insurancetech y bienes de consumo, con organizaciones que escalaron a cientos de empleados, recibieron respaldo institucional y alcanzaron liquidez.
Alex Whedon figura como CTO. Antes trabajó como ingeniero de software en Meta y fue Head of Generative AI en TribeAI, donde lideró más de 40 implementaciones empresariales de inteligencia artificial.
En paralelo, Subquadratic informó una ronda seed de USD $29 millones. Entre los inversionistas mencionados están Javier Villamizar, Justin Mateen, cofundador de Tinder y fundador de JAM Fund, Grant Gittlin de Lasagna y Jaclyn Rice Nelson de Coalition Operators, junto con inversionistas tempranos en Anthropic, OpenAI, Stripe y Brex.
La economía de la IA como telón de fondo
Más allá del debate técnico, el anuncio toca un punto crítico para el sector. El costo de inferencia se está convirtiendo en una de las restricciones más importantes para desplegar sistemas de IA a escala, sobre todo en productos que requieren uso continuo o grandes volúmenes de datos.
Subquadratic sostiene que cuando la inferencia es demasiado cara, los equipos limitan el uso, recortan contexto o descartan aplicaciones completas. Desde esa perspectiva, la arquitectura no solo define rendimiento, sino también viabilidad económica.
La empresa afirma que su enfoque hace factibles cargas de trabajo de alto volumen que antes eran prohibitivas en costo. Si esa promesa se confirma en despliegues reales, podría tener implicaciones para herramientas empresariales, asistentes de programación, análisis documental y búsquedas complejas sobre grandes repositorios de información.
Por ahora, el mercado tendrá que esperar pruebas más amplias en producción y observación independiente sobre estabilidad, costos efectivos y rendimiento fuera de benchmarks. Aun así, el lanzamiento de SubQ coloca una nueva apuesta en la carrera por redefinir la infraestructura técnica y económica de la inteligencia artificial avanzada.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
Subquadratic promete razonamiento con 12M tokens y reabre el debate sobre eficiencia en IA
Entrevistas
Mario Zechner advierte que la IA será un juego para ricos si el acceso a tokens sigue encareciéndose
Blockchain
Solana contempla lanzar el próximo trimestre Alpenglow, su próxima gran actualización
Empresas