Por Canuto  

Demis Hassabis, CEO de Google DeepMind, sostuvo que existe una alta probabilidad de alcanzar la AGI dentro de los próximos 5 años. En una extensa conversación, defendió que esta tecnología podría ser mucho más transformadora que la revolución industrial, aunque advirtió sobre cuellos de botella técnicos, riesgos de seguridad, presión energética y un fuerte impacto sobre el empleo y la distribución de la riqueza.
***

  • Demis Hassabis dijo que hay una “muy buena probabilidad” de que la AGI llegue en los próximos 5 años.
  • El CEO de DeepMind identificó al cómputo, el aprendizaje continuo, la memoria y la planificación de largo plazo como los principales retos técnicos.
  • También pidió estándares internacionales de seguridad y anticipó que la IA podría revolucionar ciencia, medicina, energía y productividad.


Demis Hassabis, CEO de Google DeepMind, afirmó que existe una alta probabilidad de que la inteligencia artificial general, o AGI, llegue dentro de los próximos 5 años. Para el directivo, esa transición tendría un impacto histórico que podría superar ampliamente a otras revoluciones tecnológicas previas.

Durante la conversación en Demis Hassabis: Why AGI is Bigger than the Industrial Revolution & Where Are The Bottlenecks in AI, realizada por Harry Stebbings en 20VC, Hassabis definió la AGI como un sistema capaz de exhibir todas las capacidades cognitivas de la mente humana. Según explicó, esa sigue siendo la referencia central, porque el cerebro humano es la única prueba conocida de que la inteligencia general es posible.

Consultado por los tiempos, evitó fijar una fecha exacta, pero sostuvo que maneja una distribución de probabilidades donde hay una “muy buena probabilidad” de que la AGI llegue en los próximos 5 años. Añadió que esa previsión no representa un cambio dramático respecto a lo que pensaban en DeepMind desde 2010.

De hecho, recordó que cuando fundaron DeepMind, junto a Shane Legg, proyectaban que la AGI tardaría cerca de 20 años en llegar, usando extrapolaciones sobre cómputo y progreso algorítmico. A su juicio, el desarrollo actual sigue bastante alineado con esa hoja de ruta.

Los cuellos de botella que aún frenan a la AGI

Para Hassabis, el principal cuello de botella hoy sigue siendo el cómputo. No solo importa para escalar modelos cada vez más grandes, sino también para experimentar con nuevas ideas a una escala suficiente como para validar si luego funcionarán dentro de sistemas de frontera.

En sus palabras, la nube funciona como el banco de trabajo del investigador. Si un laboratorio tiene muchos científicos y múltiples ideas algorítmicas nuevas, también necesita enormes recursos computacionales para probarlas con rapidez y sin distorsiones.

Respecto a las leyes de escalado, rechazó la idea de que el sector ya esté frente a un estancamiento total. Matizó que los retornos ya no son tan explosivos como al comienzo de la era de los grandes modelos de lenguaje, cuando cada generación casi duplicaba el desempeño de la anterior.

Sin embargo, aseguró que los rendimientos de seguir escalando continúan siendo “muy sustanciales”. Según planteó, los principales laboratorios de frontera siguen obteniendo beneficios claros al ampliar infraestructura y entrenamiento, aunque con retornos algo menores que en la etapa inicial.

También enumeró varios problemas técnicos que siguen sin resolverse del todo. Entre ellos destacó el aprendizaje continuo, es decir, la capacidad de que un sistema siga incorporando conocimiento una vez finalizado su entrenamiento principal.

Explicó que el cerebro humano logra esa integración de forma elegante, posiblemente mediante procesos relacionados con el sueño, la repetición y la consolidación de memoria. En contraste, los modelos actuales todavía tienen dificultades para incorporar nueva información sin degradar lo ya aprendido.

Además mencionó otros retos relevantes, como sistemas de memoria más sofisticados que las actuales ventanas de contexto, la planificación jerárquica de largo plazo y la consistencia general. A esta última limitación la describió como una “inteligencia dentada” o irregular, capaz de destacar en algunos problemas pero fallar en otros muy básicos cuando cambia ligeramente la formulación.

DeepMind, la carrera de modelos y el valor de nuevas ideas

Hassabis defendió que DeepMind y Google han tenido un papel central en la construcción de la IA moderna. Afirmó que alrededor del 90% de los avances que sustentan la industria actual provienen de Google Brain, Google Research o DeepMind.

Como ejemplos citó AlphaGo, el aprendizaje por refuerzo y los transformers. Bajo esa lectura, considera que su organización todavía está bien posicionada para producir los próximos grandes saltos técnicos si aún quedan piezas clave por descubrir.

También atribuyó la aceleración reciente de DeepMind a cambios organizacionales. En particular, destacó la integración del talento interno y la concentración de recursos computacionales en una sola dirección, en vez de mantener dos o tres esfuerzos paralelos dentro de la empresa.

Ese enfoque, dijo, permitió actuar con la intensidad de una startup mientras aprovechaban una base científica más amplia que la de muchos competidores. En su visión, el futuro no favorecerá tanto a quienes solo repitan recetas existentes, sino a los laboratorios capaces de inventar nuevas ideas algorítmicas.

Según explicó, a medida que las ideas actuales entreguen retornos decrecientes, la brecha entre los tres o cuatro laboratorios líderes podría ampliarse. Esto ocurre porque las herramientas actuales también ayudan a construir la siguiente generación de sistemas, especialmente en programación y matemáticas.

Sobre el software abierto, expresó apoyo a la ciencia abierta y recordó iniciativas como Transformers, AlphaFold y la familia Gemma. No obstante, anticipó que los modelos abiertos probablemente seguirán quedando un paso detrás de la frontera más avanzada, con un retraso aproximado de 6 meses.

En cuanto al futuro posterior a los grandes modelos de lenguaje, rechazó la tesis de que estos vayan a desaparecer. Su apuesta es que los foundation models seguirán siendo la base del progreso y que la cuestión real es si la AGI será solo un LLM o un sistema más amplio construido sobre esa base.

Ciencia, medicina y la promesa económica de la AGI

En el lado positivo, Hassabis sostuvo que la AGI sería la herramienta definitiva para ciencia y medicina. Dijo esperar que, en un plazo de 5 años o algo más, el mundo entre en una nueva edad dorada de descubrimiento científico.

Ese optimismo se conecta con su trabajo tras AlphaFold y con Isomorphic Labs, empresa derivada de DeepMind enfocada en resolver el resto del proceso de descubrimiento de fármacos. Según explicó, el objetivo es cubrir química, diseño de compuestos, toxicidad y otras propiedades necesarias para desarrollar medicamentos seguros.

Estimó que ese motor de diseño de fármacos podría estar listo dentro de 5 a 10 años. Después, añadió, quedará el problema de los ensayos clínicos, que siguen tomando muchos años y ralentizan el paso de los descubrimientos al beneficio real para los pacientes.

Aun así, cree que la IA también puede ayudar en esa fase, mediante simulaciones parciales del metabolismo humano y una mejor estratificación de pacientes según su perfil genómico. En una etapa posterior, si suficientes fármacos diseñados con IA superan todo el proceso, los reguladores podrían empezar a confiar más en las predicciones del modelo y acelerar ciertas etapas.

En paralelo, también abordó el impacto económico. Señaló que la disrupción laboral será real y que muchos empleos antiguos desaparecerán o perderán viabilidad, algo que ya ocurrió en revoluciones tecnológicas anteriores.

No obstante, recordó que históricamente surgen nuevos trabajos, muchas veces mejor remunerados. El matiz, advirtió, es que esta vez la magnitud podría ser muy superior. De hecho, cuantificó la llegada de la AGI como “10 veces la revolución industrial a 10 veces la velocidad”, desplegándose en una década en lugar de un siglo.

Hassabis sostuvo que el reto será mitigar mejor las consecuencias negativas. Mencionó varias posibilidades, como una mayor participación de fondos de pensiones o fondos soberanos en las grandes empresas de IA, para que el valor generado se distribuya con más amplitud entre la población.

También planteó que, si la ganancia de productividad se concentra en pocos actores, será necesario pensar nuevas formas de redistribución. A su juicio, los beneficios podrían canalizarse hacia infraestructura y otros bienes públicos, en un contexto donde la IA también podría habilitar avances radicales en energía, baterías, superconductores y fusión.

Seguridad, regulación global y presión energética

Otro eje central de la conversación fue la seguridad. Hassabis dijo compartir la idea de que la humanidad debe “hacerlo bien” con la IA, porque quizá no tenga una segunda oportunidad.

Identificó dos clases de riesgo. La primera es el mal uso por parte de actores dañinos, debido al carácter de doble uso de estas tecnologías. La segunda es un problema técnico: cómo garantizar que sistemas más autónomos y agentivos permanezcan dentro de los límites deseados a medida que se acercan a la AGI.

Por eso defendió una regulación internacional basada en estándares mínimos compartidos. Entre los ejemplos mencionó benchmarks para detectar rasgos indeseables, como la capacidad de engaño, y esquemas de certificación independientes que permitan auditar si un modelo cumple salvaguardas básicas.

Consideró que los gobiernos deben ser el árbitro final, apoyados por institutos de seguridad en IA y cuerpos técnicos con investigadores de alta calidad. Incluso sugirió un organismo internacional similar al de supervisión atómica, alimentado por institutos nacionales y por la comunidad científica.

También advirtió sobre ciertos límites deseables para el diseño de modelos. Uno de ellos sería evitar que sistemas avanzados emitan tokens en lenguajes no legibles por humanos, ya que eso introduciría una nueva vulnerabilidad y dificultaría la supervisión.

Sobre el consumo energético, reconoció que la demanda de la revolución de IA es enorme, pero defendió que la tecnología terminará pagando ese costo en el mediano y largo plazo. Como ejemplo, afirmó que la IA podría aportar entre 30% y 40% más de eficiencia a las redes eléctricas nacionales.

Además, señaló que la IA ya contribuye al modelado climático y meteorológico, y que podría acelerar descubrimientos en fusión, baterías y nuevos materiales. Si eso ocurre, el mundo entraría en una situación energética completamente distinta, con efectos sobre la economía, el ambiente e incluso la exploración espacial.

Londres, Europa y las preguntas filosóficas

En el tramo final, Hassabis defendió su decisión de mantener su trabajo en Londres. Argumentó que Reino Unido y Europa concentran universidades de élite, grandes científicos y una tradición intelectual que va de Newton a Turing, Hawking y Darwin.

Según dijo, esa base ofrecía talento de primer nivel con menos competencia directa que Silicon Valley en los años iniciales de DeepMind. Además, valoró la distancia respecto al ruido del valle, ya que favorece una reflexión más profunda y menos dependiente de modas pasajeras.

Aun así, reconoció una debilidad estructural europea: la falta de capital de crecimiento suficiente para convertir startups brillantes en gigantes globales. En particular, lamentó que sigan faltando rondas de miles de millones para cruzar el umbral hacia compañías de escala verdaderamente mundial.

Como solución, propuso desbloquear las inversiones de fondos de pensiones y fortalecer la ambición del mercado de capitales europeo. Dijo incluso que intentará construir una empresa de ese nivel con Isomorphic Labs, asentada en Reino Unido.

Finalmente, aseguró que una de sus mayores preocupaciones a largo plazo no es solo técnica o económica, sino filosófica. Si la humanidad resuelve la seguridad y la distribución, dijo, quedarán preguntas más profundas sobre significado, propósito, conciencia y lo que realmente significa ser humano.

Ese, sugirió, será otro gran debate de la era AGI. Y para afrontarlo, no bastarán ingenieros y empresarios. Harán falta también nuevos filósofos capaces de interpretar un cambio que, si sus previsiones se cumplen, podría redefinir la civilización en apenas una década.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín