Por Canuto  

Subquadratic, una startup con sede en Miami, salió del modo sigiloso con una afirmación ambiciosa: haber encontrado una forma de reducir drásticamente el costo computacional de los modelos de lenguaje de contexto largo. La empresa recaudó USD $29 millones, lanzó un modelo preliminar y varios productos, pero su propuesta ya enfrenta tanto entusiasmo como escepticismo dentro de la comunidad de IA.
***

  • Subquadratic asegura haber desarrollado una arquitectura de atención subcuadrática que escala de forma lineal con la longitud del contexto.
  • La startup afirma que su modelo SubQ 1M-Preview reduce el cómputo de atención casi 1.000 veces a 12 millones de tokens frente a transformers estándar.
  • La empresa recaudó USD $29 millones y promete publicar artículos técnicos, en medio de un fuerte debate sobre la validez de sus afirmaciones.


Durante años, la industria de la inteligencia artificial ha perseguido una meta muy concreta: ampliar las ventanas de contexto de los modelos. En términos simples, eso significa permitir que un sistema procese más texto, más memoria y más información al mismo tiempo, algo clave para mejorar tareas como análisis documental, programación, búsqueda y razonamiento sobre grandes volúmenes de datos.

Sin embargo, esa ambición ha chocado con un obstáculo técnico de fondo. A medida que el contexto crece, el costo computacional de procesarlo también se dispara. Esa limitación ha condicionado la economía de los modelos de lenguaje modernos y ha obligado a empresas y desarrolladores a diseñar soluciones intermedias para no saturar sus sistemas.

En ese escenario apareció Subquadratic, una startup con sede en Miami que esta semana salió del modo sigiloso con una promesa de alto impacto. Según la empresa, logró construir el primer modelo de lenguaje grande con escalado totalmente subcuadrático, una propiedad que haría que el cómputo creciera linealmente con la longitud del contexto, en lugar de hacerlo de manera mucho más costosa como ocurre en las arquitecturas transformer convencionales.

Si la afirmación termina siendo validada de forma independiente, el efecto podría ser importante para toda la industria. El procesamiento de contextos muy extensos pasaría a ser bastante más barato, lo que abriría la puerta a nuevos usos comerciales y reduciría la dependencia de capas externas de recuperación y filtrado de información.

Qué asegura haber resuelto Subquadratic

La compañía presentó como primer modelo a SubQ 1M-Preview. De acuerdo con sus propios datos, ese sistema reduce el cómputo de atención en casi 1.000 veces a 12 millones de tokens frente a las arquitecturas transformer estándar. La empresa no solo reveló el modelo, sino también una herramienta de programación llamada SubQ Code, una herramienta de búsqueda llamada SubQ Search y una API disponible actualmente mediante beta privada.

La reacción inicial fue inmediata. Justin Dangel, cofundador y CEO de la empresa, afirmó que el anuncio generó más de 12 millones de visualizaciones y más de 30.000 registros en lista de espera durante las primeras 24 horas. Esa respuesta refleja el nivel de interés que existe en torno a cualquier avance que prometa abaratar o escalar los grandes modelos de lenguaje.

Según explicó Dangel, el problema que la startup intenta atacar es estructural. Casi todos los modelos de frontera actuales dependen de transformers, una arquitectura donde cada token debe compararse con todos los demás tokens dentro de una secuencia. Ese mecanismo, aunque poderoso, se vuelve extremadamente costoso cuando se trata de procesar párrafos y más párrafos de información.

“Todo el mundo de los LLM está construido sobre transformers”, dijo Dangel, citado por Refresh Miami. “La arquitectura tiene una limitación. Cuando estás procesando párrafos y más párrafos de información, se vuelve demasiado costoso manejar grandes cantidades de datos al mismo tiempo, incluso al nivel de frontera”.

Para lectores menos familiarizados con el tema, esta limitación no es un detalle académico. En la práctica, muchas aplicaciones de IA no envían un conjunto de datos completo al modelo. En su lugar, primero recortan, fragmentan o buscan solo una parte del contenido relevante para ahorrar recursos y hacer viable el procesamiento.

Ese enfoque ha impulsado el uso de sistemas de recuperación, bases de datos vectoriales, técnicas de prompt engineering, capas de orquestación y mecanismos de chunking. Subquadratic sostiene que buena parte de esa complejidad existe porque la arquitectura base no puede gestionar contextos largos de forma eficiente.

La apuesta por una atención selectiva

El método de la empresa se llama Sparse Subquadratic Attention. La idea central consiste en concentrarse solo en las comparaciones de tokens que realmente importan, en vez de calcular atención sobre todas las relaciones posibles dentro de una secuencia. En teoría, eso reduce la sobrecarga computacional de forma considerable y conserva la calidad de recuperación aun en contextos extremadamente grandes.

Dangel sostuvo que esta arquitectura permite ampliar las ventanas de contexto mientras opera a un costo significativamente más bajo. “Nos permite operar mucho más barato”, afirmó. Esa promesa toca una fibra sensible en el sector, donde el costo de cómputo sigue siendo una de las principales barreras para desplegar sistemas avanzados a escala.

La importancia del anuncio también puede entenderse desde una perspectiva de mercado. Cuanto más barato resulta procesar grandes contextos, mayor es el incentivo para desarrollar productos empresariales capaces de analizar contratos completos, repositorios de código, bibliotecas documentales o flujos de trabajo internos sin depender tanto de herramientas auxiliares.

Por eso el lanzamiento no pasó desapercibido. No se trató solo de una nueva startup presentando un modelo, sino de una firma que sugiere haber encontrado una alternativa matemática a uno de los puntos más costosos de la IA generativa moderna.

Entusiasmo, dudas y una comunidad dividida

Aun así, el entusiasmo ha venido acompañado de un fuerte escepticismo. El lanzamiento provocó un debate inmediato dentro de la comunidad de investigación en inteligencia artificial. Algunos investigadores describieron el trabajo como potencialmente importante, mientras otros cuestionaron si las afirmaciones de la empresa resisten un análisis técnico riguroso.

La reacción quedó resumida por el comentarista de IA Dan McAteer en una publicación ampliamente compartida. Su frase fue tan directa como polarizante: “SubQ es o el mayor avance desde el Transformer… o es el Theranos de la IA”. La comparación expone con crudeza la tensión que rodea a cualquier empresa que promete un salto disruptivo antes de publicar validaciones detalladas.

Dangel reconoció esa respuesta y dijo comprenderla. “Las afirmaciones extraordinarias a menudo serán recibidas, con razón, con escepticismo”, señaló. También añadió que no le sorprende la reacción, dado que la empresa cree tener una innovación potencialmente disruptiva para la industria.

Como siguiente paso, la compañía planea publicar artículos técnicos y productos adicionales durante los próximos meses. “Esperamos con entusiasmo lanzar productos y artículos”, dijo Dangel. “Espero que la comunidad quede satisfecha”. Esa fase será decisiva, porque la aceptación real de la propuesta dependerá menos del ruido inicial y más de la revisión técnica y del desempeño reproducible.

En el ecosistema de IA ya se han visto promesas de alto perfil que luego no logran sostenerse frente al escrutinio. Por eso, aunque la presentación de Subquadratic ha sido una de las más comentadas de la semana, su prueba más difícil apenas comienza.

Capital, equipo y la apuesta desde Miami

Subquadratic también informó que recaudó USD $29 millones en financiación semilla. Entre los inversionistas mencionados figuran Justin Mateen, cofundador de Tinder, Javier Villamizar, una figura reconocida de #MiamiTech, y otros inversores que previamente han participado en empresas como Anthropic, OpenAI, Stripe y Brex.

Según Dangel, quien invirtió en Subquadratic antes de asumir como CEO, la empresa ha estado desarrollando esta tecnología durante aproximadamente cinco años. Ese dato sugiere que el anuncio no responde a un esfuerzo reciente, sino a un proceso prolongado de investigación y construcción técnica.

El cofundador y CTO, Alexander Whedon, trabajó antes como ingeniero de software en Meta y posteriormente fue Head of Generative AI en TribeAI. Dangel añadió que el equipo de investigación más amplio incluye a 11 investigadores con doctorado provenientes de organizaciones e instituciones como Meta, Google, Oxford, Cambridge, ByteDance, Adobe y Microsoft.

La empresa también quiso remarcar su identidad local. Dangel aseguró que Miami es “el mejor lugar del mundo para vivir” y “un verdadero centro de innovación”. A su juicio, la ciudad es un gran lugar para construir una empresa de este tipo si se cuenta con el equipo adecuado.

Ese mensaje encaja con la narrativa más amplia de Miami como polo tecnológico en expansión, especialmente para startups que buscan captar talento, capital y atención mediática fuera de los centros tradicionales. En este caso, la ciudad también se convierte en vitrina para una apuesta que intenta impactar una de las capas más críticas de la infraestructura de IA.

Por ahora, el mercado y la comunidad técnica observan con atención. La promesa de reducir de forma drástica el costo de atención en contextos masivos es, por sí sola, lo bastante importante como para despertar expectativa. Pero en una industria acostumbrada a anuncios grandilocuentes, la validación independiente será la diferencia entre una innovación de referencia y una promesa sobredimensionada.

Refresh Miami señala que la empresa ya logró captar una reacción masiva tras salir del sigilo. Lo que sigue ahora es la parte más compleja: demostrar con evidencia técnica que su enfoque de atención subcuadrática puede sostenerse frente al escrutinio de investigadores, clientes y competidores.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín