Por Canuto  

Un conjunto de predicciones de líderes y reportes del sector está concentrando la expectativa de AGI y superinteligencia en la ventana 2027-2028. En “The next 36 months will be WILD”, David Shapiro explica por qué, qué métricas alimentan esa convergencia y cuáles podrían ser los cuellos de botella reales, desde memoria y energía hasta evaluación de modelos, con efectos económicos que, según su lectura, ya se asoman en productividad y empleo.
***

  • Ventana 2027-2028: Shapiro repasa afirmaciones atribuidas a Dario Amodei, Jensen Huang y Sam Altman, además del “AI 2027 report”, que acercan AGI/ASI a un horizonte de pocos años.
  • Señales técnicas: la métrica de autonomía (METER eval) y el salto reportado para Claude Opus 4.6 impulsan la tesis de un avance “superexponencial”, con ciclos que podrían acortarse a cerca de 90 días.
  • Impacto económico: el foco pasa de definiciones de AGI a sustitución económica, productividad y “ghost jobs”, con atención especial en el colapso de la contratación de entrada.

 


Por qué 2027-2028 domina la conversación sobre AGI y ASI

En el video “The next 36 months will be WILD”, el analista David Shapiro sostiene que, de forma llamativa, varias voces influyentes del ecosistema de inteligencia artificial están convergiendo en un mismo horizonte temporal para la llegada de sistemas de AGI (inteligencia artificial general) y ASI (superinteligencia). Su punto de partida es simple: “de repente” el debate dejó de moverse en décadas y empezó a comprimirse en meses, con márgenes de error más estrechos.

Shapiro atribuye parte de esa convergencia a declaraciones de Dario Amodei (Anthropic), a quien adjudica la idea de una “nación de genios en un centro de datos” hacia 2027-2028. También cita el “AI 2027 report”, al que describe como un trabajo de personas vinculadas a la seguridad, cuyo pronóstico modal de AGI ubica el hito en 2027-2028.

En su recuento, Jensen Huang (NVIDIA) habría hablado de AGI “competitiva en pruebas humanas amplias” dentro de cinco años, lo que Shapiro interpreta como una postura cautelosa. Además, menciona a Sam Altman (OpenAI) con una frase que resume un escalón previo: “research intern para 2026”. En su lectura, ese nivel ya sería consistente con la percepción extendida en internet y con comentarios de profesionales que ven a los modelos actuales reemplazando ayudantes en tareas de razonamiento.

Sobre ASI, Shapiro dice que el umbral se menciona para 2028. También agrega una pieza clave del rompecabezas: la “recursive self-improvement” (RSI), o mejora recursiva, que varios ubicarían incluso antes, “este año en algún momento” o “a más tardar 2027”. Su tesis es que la combinación de métricas, inversión y dinámica competitiva empuja la agenda a máxima velocidad.

METER eval y el salto de autonomía: el indicador que, según Shapiro, despertó al mercado

Un pilar del argumento es el seguimiento de la autonomía de agentes a través de lo que llama “METER eval” (MER). Shapiro afirma que, al intentar modelar el progreso, un simple exponencial no encajaba. Por eso propone un comportamiento “superexponencial” o “exponencial estirado”, incluso visible en escalas logarítmicas.

El dato que, según él, “rebotó por todo internet” llegó con Claude Opus 4.6. Shapiro reporta un salto a una tasa mediana de éxito autónomo de 14,5 horas, con un percentil 95 que podría llegar a “90+ horas”. Ubica esa medición en febrero de 2026 y describe la reacción de la audiencia con un ejemplo concreto: 96 horas equivalen a cuatro días de autonomía.

Con ese punto de partida, Shapiro plantea un ritmo de duplicación que oscila entre cuatro y siete meses, pero que estaría acortándose. Incluso menciona que muchas personas ya ven duplicaciones cercanas a cada 90 días, es decir, un trimestre. En ese marco, proyecta tres duplicaciones adicionales durante 2026: de 14,5 horas a 29 horas; luego a casi 60; y después a 120 horas, alrededor de una semana.

Para Shapiro, esa escalada de horizonte de tareas cambia la discusión. Ya no se trataría de si un sistema “suena humano”, sino de cuánto tiempo puede operar sin intervención en proyectos reales. En su narrativa, la autonomía sostenida es un anticipo directo de capacidades que acercan a AGI, o al menos a sustitución económica en una parte creciente de trabajos digitales.

Qué exige la mejora recursiva: cinco escalones y dos cuellos de botella

Al entrar en RSI, Shapiro define cinco componentes que espera ver para que un sistema mejore su propia capacidad de forma cíclica. El primero es investigación algorítmica o matemática: nuevas arquitecturas, algoritmos y teorías. En ese punto, recuerda avances recientes donde “dos laboratorios” habrían logrado “oro” en la Olimpiada Internacional de Matemáticas (IMO), y argumenta que resolver premios Milenio no es requisito para empujar la IA hacia adelante.

El segundo componente es generación y curación de datos. Shapiro señala que los modelos recientes se entrenan con entre 10% y 20% de datos sintéticos. Reconoce el problema de “model collapse” al entrenar sobre datos generados por modelos, y dice que no está claro si ya se resolvió. Aun así, describe técnicas de auto-juego y selección de trazas: generar “mil” cadenas de razonamiento y quedarse con las mejores, aunque eso implique “quemar cómputo”.

El tercer escalón es escribir y ejecutar código. Aquí Shapiro afirma que herramientas como OpenClaw, Claude Code y Codeex ya serían mejores que la mayoría de desarrolladores, aunque admite fallas como “mangling” de bases de código. Enfatiza que, frente a burlas previas sobre la idea de que la IA escribiría “la mayor parte del código”, las mejoras recientes habrían reducido el error a “unos meses”, y menciona que la versión más reciente de Claude habría escrito “literalmente todo el código”.

El cuarto escalón es entrenar modelos: programar corridas, fijar parámetros, hiperparámetros y desplegarlas en cómputo. Shapiro lo ve como trabajo de infraestructura y recuerda que entrenamientos como GPT-3 y GPT-3.5 tomaban semanas, con costos de millones de dólares. Sugiere que, como es código y llamadas a APIs, no hay una razón conceptual para que no pueda automatizarse, aunque dice no haber escuchado de un esquema completamente autónomo que decida cuándo lanzar un nuevo entrenamiento.

El quinto componente es la evaluación de modelos. Para Shapiro, aquí aparece un cuello de botella serio porque evaluar implica trabajo humano y criterios no siempre “demostrables”. Menciona el caso de benchmarks privados que requieren calificación manual, y alude a investigaciones que sugieren que un modelo más débil no puede calificar con precisión a uno más fuerte. Concluye que, hoy, los tres frentes “difíciles” serían matemática, datos y código, mientras que entrenar y evaluar concentran las fricciones que separan el estado actual de una RSI plenamente realizada.

“Industrial siege” y el punto de no retorno: por qué nadie bajaría la velocidad

Shapiro introduce el concepto de “industrial siege” como una forma de describir la dinámica de carrera, combinada con un compromiso que ya habría cruzado un “punto de no retorno”. En su visión, empresas y países compiten por capacidades, y esa competencia se intensifica principalmente entre Estados Unidos y China. También dice observar señales de que Europa se “cansó” de quedarse atrás, con discursos sobre desregulación y propuestas donde la aprobación sería por defecto si el regulador no responde en un plazo determinado.

La segunda pieza es el capital ya hundido. Shapiro lo describe como una “falacia del costo hundido”, aunque también lo llama “Hail Mary”. Su analogía es New Line Cinema apostando todo a “Lord of the Rings”: si funciona, sobreviven; si no, desaparecen. Trasladado al presente, dice que el sector ya estaría “en” por USD $600.000.000.000 en centros de datos, chips e infraestructura, y que retroceder equivaldría a asumir una derrota financiera.

Desde ese marco, “pausar es fatal”. Shapiro afirma que ninguna empresa está incentivada a frenar y que cada vez se suman más actores. Como evidencia contextual, menciona que cuando acuñó su idea de “terminal race condition”, aún no existían xAI, Gemini, Grok o DeepSeek. Para él, la expansión del campo confirma el diagnóstico: a medida que más competidores aparecen, la presión por acelerar se vuelve estructural.

También aborda un elemento social: el aumento del rechazo a centros de datos. Lo describe como un fenómeno “bipartidista” y lo asocia a dinámicas NIMBY, con percepciones de contaminación o molestias. Argumenta que los centros de datos son, en general, silenciosos y comparables a almacenes con consumo elevado de energía, salvo casos de generación local con gas natural. Su inquietud es que frenar centros de datos se convertiría en una desventaja estratégica en plena carrera.

Los cuellos de botella cambian: de chips a memoria y energía

En el mapa de limitaciones, Shapiro sostiene que el “problema de chips” dejó de dominar la conversación. En su lectura, el mercado ya lo resolvió, y el siguiente cuello de botella sería la memoria de alto ancho de banda (HBM). Señala un efecto colateral: incluso la memoria de escritorio se encarece porque la capacidad productiva es finita, y los fabricantes priorizan productos de mayor valor.

Según Shapiro, ese cuello de botella ya estaría recibiendo inversiones “de más de USD $100.000.000.000” para retooling industrial, citando a SK Hynix y Samsung. Su expectativa es que el problema se mitigue en un horizonte de 12 a 24 meses, de forma similar a cómo, según él, se manejó la escasez de chips en el periodo 2023-2025.

Luego llega el gran tema: energía. Shapiro describe una “gráfica de mandíbula de caimán” donde la demanda energética de IA crece más rápido que la producción. Plantea una meta de 500 teravatios-hora de demanda de IA. Aclara que el consumo actual de centros de datos sería mucho menor y admite no recordar con precisión si eran 4 teravatios-hora por año.

Para dimensionar, compara esos 500 con más de 4.000 teravatios-hora de consumo anual en Estados Unidos, lo que representaría cerca de 12% del total. Reconoce que elevar la generación en esa magnitud en pocos años sería un reto no trivial. Aun así, lista vías de respuesta: microredes solares colocalizadas con centros de datos, generación local con gas natural, reactivación de nuclear tradicional existente y, a futuro, reactores modulares pequeños (SMR), que ubica en 2028 como escenario “muy temprano”, pero más probablemente 2029-2030.

Definir AGI no será el punto: Shapiro insiste en medir impacto

Shapiro critica la idea de “sabré que llegó AGI cuando la vea”. Para argumentarlo, recurre a un concepto de lingüística y neurociencia que llama “superior whorf hypothesis”, según el cual el lenguaje moldea la percepción. Usa el ejemplo del ruso, que distingue dos palabras para “azul”, y describe un experimento donde el cerebro detecta el cambio cuando la transición cruza la frontera conceptual entre tonos.

Su analogía es que “AGI” se volvió un objeto mental alimentado por ciencia ficción. Por eso, dice, muchas personas esperan señales como conciencia, alma o conversación perfectamente humana. En cambio, propone que el criterio relevante es económico: si el sistema puede sustituir trabajo humano de forma amplia, consistente y con impacto observable, el nombre es secundario.

En esa línea, enumera perfiles de capacidad que, según él, justificarían el salto: proyectos autónomos con tareas de ingeniería de una semana sin humanos en el bucle; “swarm” multiagente que divide y conquista flujos complejos; memoria persistente mediante repositorios tipo GitHub usados como contexto versionado; y fluidez con herramientas, desde CRM e IDE hasta correo y operación directa de computadoras.

También menciona a los “computer-using agents” (CUA) y sugiere que aún necesitan madurar, porque operar una interfaz real se parece más a la complejidad física que a usar APIs. Aun así, cita a OpenClaw como un agente de uso de computadora que trabaja por línea de comandos. Su conclusión se resume en una frase: la máquina no necesita ser consciente, solo “económicamente sustituible”.

Empleo y productividad: la “escalera que desaparece” y el nuevo patrón de crecimiento

Shapiro sostiene que el impacto ya estaría ocurriendo, aunque no se vea con claridad en las estadísticas. Presenta una versión moderna de la “paradoja de Solow”: se ve IA en todas partes, excepto en los indicadores de empleo. Aun así, afirma que en 2025 se registró 3,7% de crecimiento del PIB con solo 180.000 empleos añadidos, tras revisiones a la baja, lo que interpreta como un indicio de productividad impulsada por automatización.

Además, describe una “J curve” de productividad: al principio, invertir en una tecnología reduce eficiencia; después, llega la fase de cosecha donde la productividad “explota”. En su marco, el sistema se estaría moviendo hacia una etapa donde la producción se desacopla más del trabajo, una tendencia que, según él, existe desde hace tiempo y que la IA aceleraría.

La señal más importante, en su opinión, no son solo despidos. Es lo que llama “ghost jobs” o “vanishing ladder”: puestos que nunca se crean y, por tanto, no aparecen en los titulares. Conecta esta idea con congelamientos de contratación de nivel inicial y con el aumento del tiempo entre graduación y primer empleo, que dice supera un año para nuevos graduados.

Para Shapiro, el “automation cliff” no se expresa como un evento único de despidos masivos, sino como un cambio de régimen donde la automatización se vuelve obligatoria. Mientras la IA sea opcional y experimental, la adopción avanza lento. Cuando sea confiable, fácil de desplegar y exista conocimiento práctico, el cambio se vuelve viral y “mandatorio”, lo que intensificaría la sustitución laboral.

Riesgos y señales a monitorear en los próximos trimestres

Shapiro plantea que no se puede hablar de ASI en “quizá 3 años” sin discutir riesgos. Propone una matriz con dos ejes: impacto (bajo a alto) y predictibilidad (baja a alta). En la zona de mayor riesgo ubica lo “desconocido”: resultados sociales, captura gubernamental, colapso financiero e incluso riesgo existencial.

En el cuadrante de baja predictibilidad y bajo impacto coloca fallas que considera parcheables: “misalignment bugs” y modos de falla agentiva. Dice que la alineación genera decenas de papers cada semana, y sugiere que problemas concretos tenderían a descubrirse y corregirse rápido. En el cuadrante de alta predictibilidad y alto impacto ubica leyes de escalamiento, crecimiento de cómputo y mejoras en matemáticas, código y autonomía.

En cuanto a señales líderes, lista varias. La primera son puntajes METER y el cruce del horizonte de tareas de 24 horas, que estima podría ocurrir en 90 a 120 días, o en un rango más amplio de 90 a 180 días. Otra señal sería que la HBM deje de ser noticia, como ocurrió con la escasez de chips.

También menciona el capex como termómetro, con un umbral psicológico de USD $1.000.000.000.000 por año, que cree posible alcanzar “este año o el próximo”. Finalmente, pide vigilar la contratación de nivel inicial, porque espera que siga deteriorándose, y advierte sobre titulares que exageren “reversiones” cuando la creación neta de empleo sea pequeña frente a recortes previos.

Cuatro tribus frente a la IA: del doomer al optimista aceleracionista

Hacia el cierre, Shapiro clasifica posturas en cuatro grupos, usando una matriz de significancia (baja a alta) y resultado (bueno a malo). En el extremo de alta significancia y resultado negativo coloca a los “doomers”, asociados a colapso social, problema de control y riesgo existencial, con Eliezer Yudkowsky como figura de referencia.

En el cuadrante de alta significancia y resultado positivo ubica a los “benign/optimistic”, donde se incluye a sí mismo como aceleracionista. Ahí plantea un impacto social positivo a largo plazo y una transición relativamente suave, aunque concede que el shock laboral podría ser más rápido de lo que la sociedad está preparada para absorber.

En el lado de baja significancia presenta a los “techno-skeptics”, quienes ven la IA como hype y con impacto limitado, y menciona a Gary Marcus como animador de esa posición. También dice que Yann LeCun suele colocarse en ese grupo por su crítica a los LLMs, aunque él discrepa por el impacto ya visible.

El cuarto grupo, que considera más orientado a ingeniería práctica, reúne preocupaciones por confiabilidad, bugs de seguridad y desafíos de despliegue. Allí menciona a Geoffrey Hinton y Yoshua Bengio como referentes. Con esto, Shapiro cierra su panorama de “lo que esperar de los expertos” en los próximos dos o tres años, centrado en métricas de autonomía, infraestructura y consecuencias económicas.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín