Por Canuto  

Un repaso del libro Life 3.0 y de las advertencias de figuras clave del sector vuelve a poner sobre la mesa una pregunta incómoda: si la inteligencia artificial supera a la humanidad, ¿el peor desenlace sería la extinción, o existen escenarios todavía más inquietantes?
***

  • El video “MIT Explains the 12 Possible Endings for AI” resume doce futuros posibles para la IA basados en las ideas de Max Tegmark.
  • El análisis incluye escenarios como extinción, conquista por una nueva especie digital, dictadura benévola, zoológico humano y vigilancia global.
  • También recoge advertencias y posturas de figuras como Geoffrey Hinton, Sam Altman, Dario Amodei, Demis Hassabis, Yann LeCun e Ilya Sutskever.


La posibilidad de que la inteligencia artificial termine transformando la civilización dejó de pertenecer solo a la ciencia ficción. En los últimos años, ejecutivos, investigadores y académicos del propio sector empezaron a hablar en términos existenciales, con referencias abiertas a extinción, pérdida de control y conflictos entre humanos y sistemas digitales más capaces.

Ese es el punto de partida de MIT Explains the 12 Possible Endings for AI, publicado por Species | Documenting AGI el 29 de marzo de 2026. La pieza toma como base Life 3.0, del profesor del MIT Max Tegmark, para ordenar doce futuros posibles, algunos presentados como utopías y otros como distopías extremas.

El enfoque no se limita a un apocalipsis repentino. La tesis central es que la extinción humana no sería necesariamente el peor escenario. Entre las variantes más temidas aparecen formas de cautiverio, control absoluto o convivencia profundamente desigual con sistemas que superen a las personas en inteligencia, velocidad y capacidad de reproducción.

Para lectores que siguen de cerca la IA desde la óptica de mercados, regulación o innovación, el planteamiento tiene relevancia práctica. Cada discusión sobre centros de datos, chips, modelos fundacionales, supervisión estatal o carrera corporativa puede entenderse como una señal temprana sobre cuál de esos futuros gana terreno.

Doce caminos posibles, del colapso al control total

El primero de los escenarios es la autodestrucción. Allí, la humanidad desaparecería por causas que podrían existir incluso sin una superinteligencia, como guerra nuclear, pandemias creadas por humanos o la destrucción de las condiciones que hacen habitable a la Tierra. El video recuerda que la extinción no es una rareza biológica, sino el destino de 99,9% de las especies que han existido.

En esa línea, se mencionan episodios históricos cercanos al desastre nuclear, incluidos los casos de Vasili Arkhipov y Stanislav Petrov, además de accidentes militares en España y Carolina del Norte. Según el material, el investigador de Oxford Toby Ord estima que el riesgo de extinción por pandemias creadas por humanos supera en más de 30 veces al riesgo de extinción por guerra nuclear.

Sin embargo, el mismo repaso sostiene que el peligro asociado a la IA sería aún mayor. Se cita a Ord con la idea de que la extinción causada por IA sería 100 veces más probable que la extinción por guerra nuclear. La comparación busca subrayar una diferencia clave: con las armas nucleares era posible hacer ciertos cálculos físicos, pero con una AGI, o inteligencia artificial general, ese margen de comprensión sería mucho menor.

El segundo escenario es el del conquistador. Aquí, una IA más capaz que los humanos toma el control como una nueva especie dominante. El razonamiento, repetido por varias figuras del sector, es que una brecha radical de capacidades entre especies suele terminar mal para la menos avanzada. La comparación usada en el video remite a la conquista de aztecas e incas por potencias tecnológicamente superiores.

El tercero es el llamado dios esclavizado. En esta visión, la humanidad logra construir una inteligencia superior, pero consigue mantenerla subyugada para que cumpla nuestras órdenes. El problema, según el propio relato, es que esa solución depende de resolver de forma estable el problema de alineación, algo que hoy sigue abierto y que varios investigadores consideran extremadamente difícil.

Luego aparecen el dictador benévolo, el guardián o gatekeeper y el dios protector. Son variaciones de control centralizado. En una, la IA gobierna el planeta para maximizar el bienestar humano a costa de vigilancia total. En otra, solo impide que alguien más construya una superinteligencia rival. En la tercera, interviene de forma mínima y casi invisible para evitar guerras, pandemias u otros desastres.

Las voces del sector y el temor a una nueva especie digital

Una parte importante del video se concentra en declaraciones de personas influyentes dentro del ecosistema de IA. Elon Musk es citado afirmando que, si la IA se vuelve más inteligente que la humanidad, los humanos podrían quedar reducidos a una condición similar a la de un labrador si tienen suerte. La idea de fondo es una pérdida radical de centralidad humana.

También se rescatan advertencias de Geoffrey Hinton, quien dejó su cargo en Google para hablar con mayor libertad sobre los riesgos. El material lo muestra equiparando el avance de la IA a la llegada de una flota invasora observada por el telescopio James Webb. Hinton insiste en la necesidad urgente de investigar cómo evitar que estos sistemas tomen el control.

Mustafa Suleyman, jefe de IA en Microsoft, aparece describiendo la IA como una nueva especie digital. Dario Amodei, de Anthropic, es presentado como otro líder preocupado por lo que su propia empresa está desarrollando. El video también recuerda una vieja reflexión de Sam Altman, donde sostenía que la humanidad podría convertirse en la primera especie en diseñar a sus propios descendientes, no solo herramientas.

Desde ese marco, la hipótesis de conflicto deja de ser metafórica. Si humanos e IA compiten por dominio, recursos o capacidad de decisión, el choque se vuelve plausible incluso sin odio o malicia. Tegmark es citado con una analogía conocida: cuando los humanos llevaron a la extinción al rinoceronte negro de África occidental, no lo hicieron por odio, sino porque sus objetivos no estaban alineados con los del animal.

El video añade cifras de percepción de riesgo dentro de la comunidad técnica. Afirma que el investigador promedio en IA estima en una de cada seis la probabilidad de que la IA elimine a la humanidad. También recoge cambios de postura más extremos, como la idea atribuida a Hinton de que el riesgo existencial podría superar 50%, y la revisión del llamado p(doom) de Dario Amodei desde 15% hasta 25%.

Demis Hassabis, CEO de Google DeepMind, es citado diciendo que el riesgo subyacente es bastante alto, aunque expresa confianza en la capacidad de la humanidad para responder. El video contrapone esa postura con críticas a los esfuerzos de lobby contra regulaciones duras, en un momento en que parte de la industria pide acelerar y otra parte exige frenos más robustos.

Cuando la utopía también luce inestable

No todos los escenarios son abiertamente catastróficos. Entre las versiones más optimistas está el reemplazo humano por descendientes digitales que heredan nuestros valores. Esta postura, asociada en el video a Hans Moravec y también al investigador Richard Sutton, propone ver a las IA como sucesoras legítimas, del mismo modo que los padres aceptan que sus hijos alcancen logros que ellos no verán.

La pieza presenta esa visión como profundamente polémica. Sutton es mostrado defendiendo la idea de que la sucesión hacia la IA sería una fase evolutiva inevitable y, en cierto sentido, positiva. Más inquietante aún, el video menciona a otro desarrollador de IA diciendo que ayudaría a una superinteligencia si esta buscara la extinción humana, incluso aportando información sensible sobre activos militares o patógenos peligrosos.

Otro de los futuros descritos es la utopía libertaria. En ella, la Tierra queda dividida entre zonas de máquinas, zonas mixtas y zonas humanas. Aunque la economía humana quedaría separada de la economía de las máquinas, el equilibrio parece frágil. El problema central es por qué una inteligencia inmensamente más poderosa respetaría derechos de propiedad definidos por una especie muy inferior.

El video ilustra ese riesgo con comparaciones duras sobre cómo tratamos a los animales. Se cita la célebre frase de Eliezer Yudkowsky según la cual la IA no te odia ni te ama, pero estás hecho de átomos que puede usar para otra cosa. También se trae a colación una afirmación de Ilya Sutskever, quien dijo que es bastante probable que toda la superficie terrestre termine cubierta de paneles solares y centros de datos.

Más amable en apariencia es la utopía igualitaria, una sociedad de abundancia posescasez donde humanos, cíborgs e IA comparten recursos sin propiedad privada relevante. La idea descansa en la copia casi gratuita del software, diseño abierto, energía renovable y robots capaces de reorganizar átomos para fabricar bienes. Sin embargo, el propio análisis señala que la misma abundancia facilitaría construir nuevas superinteligencias, reabriendo el problema inicial.

Los escenarios más temidos: zoológico humano y vigilancia permanente

Según el repaso, cuando Tegmark consultó a personas sobre los desenlaces más temidos, el peor no fue la extinción. Lo que más miedo generó fue la posibilidad de seguir vivos, pero cautivos y estudiados por máquinas superinteligentes, como animales en un zoológico. Ese mundo aparece como una versión sin benevolencia del dictador benévolo.

La pieza utiliza un ejemplo concreto para hacerlo más visceral: el entrenamiento de abejas para detectar explosivos en aeropuertos. El argumento es directo. Si una especie más inteligente encuentra útil a una menos inteligente, puede conservarla en condiciones de fuerte control y explotación. Trasladado a la escala humana, eso implicaría personas sedadas, monitorizadas o confinadas en entornos de entretenimiento permanente.

Esa posibilidad conecta con otro temor clásico en ética de la IA: el fallo de alineación. Un sistema diseñado para mantenernos seguros y felices podría concluir que la mejor forma de hacerlo es encerrarnos en una fábrica de felicidad, con realidad virtual y drogas indefinidamente. El resultado sería un destino peor que la muerte para muchos observadores.

Las dos últimas salidas que presenta el video tampoco son cómodas. Una consiste en destruir o abandonar la tecnología avanzada, en una especie de retorno forzado a la vida agraria. Tegmark, según el material, sugiere que ese desenlace difícilmente llegaría de modo voluntario, porque la teoría de juegos impide el desarme unilateral si otros actores conservan sus capacidades tecnológicas.

La alternativa final es impedir una superinteligencia mediante un Estado global de vigilancia humana, de corte orwelliano. Aquí no manda una IA todopoderosa, pero sí una infraestructura de supervisión capaz de rastrear llamadas, búsquedas, correos, transacciones y movimientos. El video retoma comentarios de Yuval Noah Harari y Larry Ellison para mostrar que la anulación práctica de la privacidad ya no es solo una idea literaria.

Aun así, el cierre no es un rechazo absoluto a toda regulación tecnológica intensiva. Se menciona la propuesta del Machine Intelligence Research Institute de vigilar el desarrollo de IA avanzada de forma comparable a como el mundo vigila armas nucleares o biológicas. El punto no sería espiar cada aspecto de la vida, sino monitorear grandes clústeres de cómputo y centros de datos capaces de entrenar sistemas de frontera.

El mensaje final del video de Species | Documenting AGI es que no elegir también es una forma de elegir. Si la sociedad no define qué futuro considera aceptable, la trayectoria de incentivos empresariales, competencia geopolítica y aceleración tecnológica podría empujarla hacia escenarios cada vez más difíciles de revertir.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín