Un nuevo indicador de “trabajo real completado por una IA” está cambiando el debate: no mide euforia bursátil, sino cuánto tiempo de tareas complejas puede ejecutar un sistema sin ayuda. El video “Actually, AI Is Not A Bubble.” del canal Species | Documenting AGI sostiene que esa curva no solo no se aplana, sino que acelera, y que sus implicaciones van desde el reemplazo de empleos de oficina hasta el temor, compartido por científicos, de perder el control sobre sistemas cada vez más autónomos.
***
- Una métrica enfocada en trabajos reales sugiere que la capacidad de la IA para completar tareas largas se ha estado duplicando cada 4 a 7 meses desde 2019.
- El avance no luce “suave”: la IA progresa en un “frente irregular”, con saltos donde capacidades pasan de imposibles a confiables, pese a errores llamativos.
- El debate supera la idea de burbuja: el video resalta riesgos económicos y de seguridad, incluyendo estimaciones de científicos de un 16% de extinción y la cifra de 25% mencionada por el CEO de Anthropic.
El debate público sobre si la inteligencia artificial (IA) vive una burbuja suele depender de un termómetro conocido: el precio de las acciones. Sin embargo, el video Actually, AI Is Not A Bubble. del canal Species | Documenting AGI propone que la pregunta clave no está en los mercados, sino en una curva técnica que intenta medir qué tanto “trabajo real” puede completar un sistema de IA por sí solo, sin ayuda humana.
La tesis central es que la narrativa de burbuja se apoya en percepciones, mientras que ciertas métricas de capacidad describen hechos. En ese marco, el video plantea que el progreso reciente no solo continúa, sino que se acelera, y que sus consecuencias podrían sentirse antes de lo que la mayoría asume, especialmente en empleo, productividad y riesgo sistémico.
Para lectores nuevos, conviene separar dos planos. Uno es el financiero: expectativas, miedo, euforia y correcciones. El otro es el tecnológico: si un modelo logra o no logra resolver una tarea concreta en condiciones reales. El argumento sostiene que confundirlos lleva a diagnósticos errados sobre el momento que atraviesa la IA.
La métrica que busca responder: ¿qué tan grande es el “trabajo” que una IA completa sola?
El video describe un esfuerzo de investigadores de una organización sin fines de lucro llamada Meter, cuyo objetivo sería responder una pregunta puntual: “¿Qué tan grande es un trabajo del mundo real que una IA puede completar completamente por su cuenta?”. A diferencia de benchmarks clásicos, el enfoque intenta reducir la posibilidad de “jugar” con la prueba, porque el resultado, según el planteamiento, es binario: o el sistema completa el trabajo real, o no lo completa.
El relato ilustra el salto de capacidad con hitos. En 2020, GPT-3 podía escribir un email, una tarea de unos 15 segundos. Luego, “hace un año” respecto al momento narrado, la IA ya podía corregir un bug. Y “ahora”, sostiene el video, la IA puede programar una aplicación completa desde cero, elevando el listón desde microtareas hacia entregables integrales.
En esa línea, el video afirma que la complejidad de las tareas que una IA podría ejecutar de manera autónoma se duplicó en cuestión de meses, y volvió a duplicarse poco después, en un patrón repetido. El resumen numérico que ofrece es contundente: desde 2019, el indicador habría estado duplicándose aproximadamente cada 7 meses, y los sistemas actuales podrían realizar tareas 100 veces más largas que hace 5 años.
La extrapolación que presenta es aún más agresiva: si la tendencia persiste, en otros 5 años las IA estarían ejecutando tareas 10.000 veces mayores que las de hace un lustro. El video trata esta idea como un “indicador de cuándo la IA realmente tomará tu trabajo”, al vincular la longitud de una tarea completada de extremo a extremo con la capacidad de sustituir funciones laborales completas.
Una “ley de Moore” para la IA, más rápida que la original
Para dar contexto, el video recurre a la ley de Moore, el patrón histórico donde la potencia de los chips se duplicó cada 18 a 24 meses durante décadas. El ejemplo didáctico es conocido: un teléfono moderno concentra más capacidad de cómputo que salas enteras de computadoras de los años setenta. La idea no es la nostalgia tecnológica, sino señalar lo que ocurre cuando una curva exponencial se mantiene.
El punto, según Species | Documenting AGI, es que Meter habría observado un equivalente para la IA, pero con un ritmo superior. En el relato se menciona que “GPT 5.1” ya puede realizar tareas de ingeniería de software del mundo real que tomarían a un experto humano más de 3 horas, y que eso sería más del triple de lo que lograban los mejores modelos apenas un año antes.
Luego, el narrador agrega una actualización: el progreso estaría ocurriendo incluso más rápido que cuando se escribió el guion, y “Claude Opus 4.5” ya podría hacer tareas de casi 5 horas. A partir de ahí, el video sostiene que la tendencia habría saltado a una nueva línea: duplicación cada 4 meses, en lugar de cada 7 meses, y subraya que “no se está desacelerando”, sino que “en 2025 empezó a acelerarse”.
Con esa pendiente, el video proyecta que las IA podrían ejecutar tareas de 8 horas en 2026, equivalente a una jornada laboral completa. Y para 2028, tareas de una semana. Esa última cifra es tratada como un umbral económico: si agentes de IA realizan trabajos de una semana, podrían reemplazar empleos de oficina a lo largo de la economía, por su capacidad de ejecutar planes largos sin supervisión constante.
Por qué “burbuja” no es el marco correcto, según el video
El argumento distingue entre curvas de mercado y curvas de capacidad. Los precios reflejan sentimiento: optimismo, miedo, codicia, decepción. Por eso pueden subir con expectativas y caer cuando la realidad no acompaña. En cambio, afirma el video, una curva tecnológica mide realidad: qué se puede hacer, con qué confiabilidad, bajo restricciones físicas y computacionales.
Desde esa perspectiva, usar “burbuja” como explicación sería confundir un fenómeno financiero con un fenómeno de ingeniería. La palabra implica falsedad o exageración sin sustento. El mensaje central es que, en este caso, el progreso sería “real” y además “económicamente valioso”, porque se traduce en trabajo efectivo automatizable, no solo en demostraciones vistosas.
En el mismo tramo, el video plantea un contraste llamativo: “optimistamente” las empresas dirían que la IA “tomará tu trabajo”; “pesimistamente”, que “podría destruir el mundo”. Esa dualidad, en la narrativa, no sería marketing, sino un reflejo de que la tecnología apunta tanto a productividad radical como a riesgos inéditos.
El texto también empuja la idea de aceleración por velocidad de ejecución: agentes corriendo a 100 a 200 veces la velocidad humana. En ese marco, se afirma que podrían leer un libro en segundos y escribir un libro en un minuto, como metáfora de la brecha de ritmo. El escenario que plantea es el de organizaciones que dejan a sistemas trabajar “3 días” y obtienen resultados que a una empresa humana le tomaría “un año”.
El “frente irregular”: por qué la IA parece brillante y torpe a la vez
Una de las partes más importantes del relato intenta explicar un fenómeno cotidiano: modelos que asombran en tareas complejas, pero fallan en cosas que un humano considera obvias. El video lo llama “jagged frontier”, un frente irregular. En vez de una mejora pareja, las capacidades aparecerían en saltos, y coexistirían con errores embarazosos.
Para ilustrar el salto, se menciona el benchmark GPQA, descrito como preguntas de nivel PhD que no se resuelven con una búsqueda rápida. “Hace un año”, dice el video, los modelos contestaban 60% de esas preguntas. “Hoy” se estarían acercando al 90%, incluso por encima de expertos humanos en preguntas de ciencia a nivel de posgrado, según esa afirmación.
La narrativa critica que algunos errores se vuelven memes persistentes y alimentan titulares del tipo “lo que la IA aún no puede hacer”. También sostiene que parte de esas críticas se apoya en ejemplos desactualizados, y que el ciclo editorial puede publicar conclusiones “años fuera de fecha” para cuando se leen, lo cual distorsiona la percepción pública del ritmo real.
La explicación que propone es de umbrales. Cada capacidad empezaría en cero, y con más cómputo, más datos y mejores algoritmos, cruzaría un punto crítico donde pasa de imposible a confiable “casi de la noche a la mañana”. Ese mecanismo haría que el avance se vea errático en el corto plazo, sin negar una tendencia de fondo al alza.
De la automatización del código a la automatización de la investigación de IA
El video conecta el aumento en “duración de tareas” con un miedo específico: cuando un sistema automatiza tareas de programación de un mes o de un año, entonces podría automatizar la investigación en IA. Eso abre la puerta a “IA auto-mejorándose”, un concepto que el narrador describe como una escalera que podría llevar a sistemas fuera de control sin saber en qué peldaño ocurre el punto de no retorno.
En apoyo de esa preocupación, se citan estimaciones de riesgo. El video dice que, en 2024, investigadores encuestaron a miles de científicos de IA y el promedio arrojó un 16% de probabilidad de que la IA cause extinción humana. Además, menciona que el CEO de Anthropic elevó su propia estimación a 25%.
El relato enfatiza que esa preocupación no sería exclusiva de ejecutivos con incentivos de mercado. Plantea que, dentro del campo, hablar de riesgo existencial se volvió relativamente común, y que quienes lo expresan suelen recibir críticas, no aplausos. En esa lógica, la advertencia sería más una carga que una campaña.
También se aportan ejemplos sobre código. Se menciona que Dario Amodei, CEO de Anthropic, dijo que Claude ya escribe 90% del código dentro de la empresa, y que había sido ridiculizado por anticiparlo meses antes. Además, el video afirma que la IA ya escribe código suficientemente bueno para reemplazar programadores junior, y que Amodei cree que podría eliminar 50% de empleos de oficina de nivel inicial.
Las “S-curves”, el zoom y la intuición lineal: por qué el desacuerdo persiste
Otra parte del argumento se centra en psicología y visualización. La audiencia, dice el video, está “cableada” para pensar en líneas rectas. Por eso, cuando pasan meses sin una revolución personal evidente, algunos concluyen que la IA se estancó. El narrador lo llama “amnesia de IA”: olvidar cuán limitados eran los sistemas hace poco.
Para explicar cómo una misma tendencia genera conclusiones opuestas, el video usa la metáfora del “zoom”. Desde lejos, una curva luce exponencial. Desde cerca, puede verse plana, lineal o hasta en retroceso. Allí “viven los escépticos”, según el relato, observando cambios semanales o mensuales y declarando que la tendencia se rompió.
El video recurre a Ray Kurzweil para describir que cada exponencial está compuesta por múltiples curvas en S: una fase inicial lenta, una fase de crecimiento rápido y una maduración que se aplana. La clave sería que, cuando una S-curve se aplana, una nueva comienza por cambio de paradigma. Se menciona la transición desde GPT-4 hacia modelos de razonamiento, y desde transformers hacia modelos multimodales.
En ese marco, el “plateau” no sería un final, sino una transición. Puede durar meses o un año, pero la trayectoria agregada seguiría siendo exponencial por la superposición de oleadas. El relato culmina con una advertencia: si el objetivo final es la auto-mejora recursiva, la distancia entre humanos y una superinteligencia podría superar la que existe entre humanos y hormigas.
Fuente: “Actually, AI Is Not A Bubble.”, Species | Documenting AGI (publicado el 18 de febrero de 2026).
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Mineros de bitcoin migran a la IA: analistas alertan que minar ya no es rentable
OpenAI acuerda llevar sus modelos de IA a la red clasificada del Departamento de Guerra de EE. UU.
OpenAI despide a empleado por presunto uso de información confidencial en mercados de predicción