Por Canuto  

Yann LeCun, uno de los pioneros más influyentes de la inteligencia artificial, redobló sus críticas a los grandes modelos de lenguaje y defendió una ruta distinta para construir sistemas realmente inteligentes. En una extensa conversación, explicó por qué dejó Meta, qué busca desarrollar con su nueva empresa AMI y por qué considera que la próxima gran etapa de la IA dependerá de modelos capaces de anticipar consecuencias y planificar en el mundo real.
***

  • Yann LeCun afirmó que los LLM son útiles, pero no constituyen una vía hacia inteligencia humana o animal.
  • El investigador defendió los modelos del mundo y la arquitectura JEPA como base para una IA capaz de planificar y actuar en entornos reales.
  • También detalló por qué dejó Meta, criticó la presión de corto plazo sobre la investigación y advirtió que los LLM son intrínsecamente inseguros para sistemas autónomos.


Yann LeCun, una de las figuras más reconocidas en la historia de la inteligencia artificial, volvió a marcar distancia frente al entusiasmo dominante por los grandes modelos de lenguaje. En una conversación con Jacob Effron, en el episodio Yann LeCun on What Comes After LLMs, el científico sostuvo que estas herramientas han dado lugar a productos muy útiles, pero insistió en que no representan un camino hacia una inteligencia de nivel humano, ni siquiera comparable a la de muchos animales.

Su tesis central es que la IA necesita algo más que manipular lenguaje. Para LeCun, los sistemas verdaderamente inteligentes deben ser capaces de anticipar las consecuencias de sus acciones y planificar secuencias para cumplir objetivos. Ese marco, dijo, es muy distinto al que domina hoy en la industria con modelos autoregresivos que predicen token por token.

La discusión no es menor. El auge de los LLM ha empujado inversiones multimillonarias, nuevas startups, cambios en las estrategias de Big Tech y un rediseño de cómo empresas y usuarios interactúan con la información. Pero LeCun cree que la fase actual también ha generado una especie de comportamiento gregario en Silicon Valley, donde casi todos persiguen la misma trinchera técnica.

Desde su punto de vista, ese enfoque puede seguir siendo rentable y producir avances visibles, sobre todo en código, matemáticas y aplicaciones de lenguaje. Sin embargo, no resuelve el problema que más le interesa desde hace décadas: construir inteligencia artificial para el mundo real, capaz de entender entornos físicos complejos, inciertos y continuos.

Por qué LeCun cree que los LLM no bastan

LeCun fue cuidadoso al señalar que no considera inútiles a los LLM. De hecho, recordó que él mismo ayudó a desarrollar algunos de los primeros modelos abiertos de gran impacto en Meta. Su objeción no es práctica, sino arquitectónica. A su juicio, los LLM son excelentes para manipular lenguaje humano, código o formalismos cercanos al lenguaje, pero no para comprender la realidad física con suficiente profundidad.

Según explicó, el mundo real es de alta dimensión, continuo, ruidoso y desordenado. Eso lo vuelve mucho más difícil de modelar que una secuencia de tokens discretos. Por eso, argumentó, entrenar una IA para entender video, espacio, causalidad y acción exige una estrategia distinta a la que hizo exitosos a los chatbots actuales.

LeCun resumió esa diferencia en dos capacidades que considera esenciales para la conducta inteligente. La primera es predecir las consecuencias de las propias acciones. La segunda es planificar mediante búsqueda y optimización, no simplemente generar el siguiente paso de forma autoregresiva. En su visión, sin esas dos piezas no hay agencia confiable.

Incluso cuando reconoció avances llamativos en demostraciones de robótica, insistió en que gran parte de esos sistemas dependen de enormes volúmenes de datos de imitación y de un ajuste fino costoso. Eso, dijo, produce soluciones frágiles, con baja generalización y con una dependencia excesiva de ejemplos específicos para cada tarea.

AMI, JEPA y la apuesta por modelos del mundo

Su nueva empresa, AMI, sigla de advanced machine intelligence, busca convertir esa tesis en tecnología. LeCun describió la iniciativa como una apuesta por “IA para el mundo real”. La meta es desarrollar sistemas que aprendan modelos del mundo, es decir, estructuras internas que permitan anticipar lo que ocurrirá si una máquina ejecuta cierta acción en un entorno dado.

Para ello, el investigador defiende una familia de métodos conocida como JEPA, por joint embedding predictive architecture. En lugar de predecir píxeles o generar secuencias completas de manera detallada, esta arquitectura intenta predecir representaciones abstractas. Esa diferencia, sostuvo, es clave para lidiar con la ambigüedad y complejidad del mundo físico.

LeCun explicó que, cuando una persona observa una botella de agua sobre una mesa, no predice cada píxel de lo que ocurrirá si la empuja. Más bien anticipa, a un nivel abstracto, si se deslizará, volcará o derramará agua. Para él, esa es la clase de modelado que una IA necesita aprender si quiere actuar con sentido común y eficiencia.

En esa línea, criticó la predicción a nivel de píxel como una “propuesta perdedora” para el aprendizaje de representaciones útiles. Relató que, tras años explorando modelos generativos para imágenes y video, terminó convencido de que las arquitecturas no generativas habían mostrado mejores resultados para extraer estructura relevante y escalable.

Su expectativa es que, en un horizonte de entre 12 y 18 meses, AMI pueda exhibir una metodología general para entrenar modelos jerárquicos en múltiples modalidades, incluyendo video y datos industriales. Después, espera llevar esos avances a casos de uso concretos con socios en robótica, control de procesos y salud.

De robots domésticos a plantas industriales

LeCun reconoció que los robots domésticos realmente útiles siguen estando a varios años de distancia. Aunque existe un número creciente de empresas construyendo robots, afirmó que casi ninguna sabe todavía cómo dotarlos de la inteligencia necesaria para operar con fiabilidad en hogares o incluso en muchas tareas fabriles más estrechas.

En cambio, ve oportunidades más inmediatas en la industria. Mencionó aplicaciones en motores a reacción, plantas químicas, plantas eléctricas, líneas de manufactura, pacientes humanos y células. En todos esos casos, dijo, hay sistemas tan complejos que no pueden modelarse con unas pocas ecuaciones tradicionales, pero sí mediante redes neuronales que aprendan su dinámica a partir de datos.

Si esos modelos son condicionados por acciones, añadió, se convierten en modelos del mundo útiles para el control óptimo. Desde su perspectiva, la cantidad de aplicaciones potenciales en la industria es “asombrosa”. Esa fue una de las razones por las cuales concluyó que Meta ya no era el entorno adecuado para impulsar este proyecto.

Cuando se le pidió una proyección temporal, respondió en tono de broma que en cinco años espera “dominación mundial completa”, citando a Linus Torvalds y Linux. Más allá del chiste, su punto fue serio: cree que este será el plano general de los sistemas inteligentes del futuro, mientras que los LLM conservarán un lugar más acotado como interfaz de lenguaje.

Su salida de Meta y la crítica a la industria

LeCun también repasó su etapa en Meta. Recordó que ingresó a finales de 2013 y que, en los primeros cuatro años y medio, dirigió FAIR, el laboratorio de investigación en IA de la empresa. Más tarde dejó ese rol para convertirse en chief AI scientist, una posición desde la que buscó retomar su propia agenda científica en torno a aprendizaje autosupervisado, video y modelos del mundo.

Destacó como gran logro haber construido un laboratorio abierto, con cultura científica fuerte y contribuciones que trascendieron a la propia empresa, como PyTorch. Sin embargo, lamentó que con el tiempo Meta perdiera una estructura intermedia capaz de tomar ideas de investigación y empujarlas hacia una etapa más aplicada sin someterlas de inmediato a la presión brutal del producto de corto plazo.

Según su relato, la creación de la organización GenAI en 2023 absorbió talento desde FAIR para convertir Llama en una línea real de productos. Eso produjo Llama 2, Llama 3 y Llama 4, aunque describió a esta última como una decepción. También sostuvo que la presión por alcanzar al resto del sector volvió a la organización más conservadora y menos receptiva a líneas de investigación exploratoria.

En ese contexto, aunque dijo que Mark Zuckerberg, Andrew Bosworth y otros líderes estaban interesados en su proyecto de modelos del mundo, percibió que el resto de la compañía se concentró casi por completo en LLM. Además, subrayó que muchas aplicaciones de JEPA y world models apuntan a sectores industriales que no encajan con las prioridades de Meta.

LeCun quiso desmontar además una idea extendida sobre su influencia en Llama. Aseguró que no tuvo ninguna contribución técnica directa al proyecto, positiva o negativa. Su papel, sostuvo, se limitó sobre todo a defender que Llama 2 fuera abierto, en un debate interno donde chocaban posturas legales, políticas, de comunicación y de ingeniería.

Sobre la investigación de frontera, fue tajante. Dijo que la mejor forma de obtener avances disruptivos es contratar a los mejores, darles medios suficientes y apartarse de su camino. También señaló que hoy muchas grandes compañías publican menos, imponen más restricciones y se han vuelto menos atractivas para quienes quieren trabajar en avances conceptuales de largo plazo.

Seguridad, salud y soberanía en la era de la IA

Uno de los tramos más polémicos de la conversación fue su crítica a la seguridad de los LLM. LeCun afirmó que estos modelos son “intrínsecamente inseguros”, porque no pueden dejar de alucinar por completo ni garantizar que un agente basado en ellos no ejecute acciones cuyos efectos no comprende. A su juicio, ese límite no puede corregirse dentro del paradigma actual.

Propuso en contraste una IA orientada por objetivos, equipada con modelos del mundo y funciones de costo o restricciones explícitas. Bajo ese diseño, un sistema planifica acciones imaginando resultados y evaluando si cumplen el objetivo sin violar reglas de seguridad. Eso no elimina todos los errores, admitió, pero ofrece una base más controlable que la mera obediencia a prompts aprendida por entrenamiento.

En salud, distinguió entre el valor de los LLM como repositorios y sintetizadores de conocimiento declarativo, y la necesidad de modelos más profundos para tareas complejas. Puso como ejemplo el diseño de tratamientos para enfermedades crónicas o la posibilidad de modelar cómo inducir que una célula madre se convierta en una célula beta pancreática productora de insulina.

LeCun también habló de Tapestry, una idea paralela a AMI. La describió como una plataforma abierta de modelos base afinables por cualquier comunidad o país, con aprendizaje federado y sin necesidad de compartir datos localmente sensibles. El objetivo sería preservar soberanía lingüística, cultural y política en un escenario donde los asistentes de IA median cada vez más la dieta informativa de los ciudadanos.

Para el investigador, muchos países fuera de Estados Unidos y China no querrán depender de asistentes hechos en California o Shenzhen. Esa visión, dijo, podría impulsar una infraestructura abierta que, como Linux en Internet, termine desplazando con el tiempo a varias plataformas propietarias hoy dominantes.

LeCun cerró con una observación que resume su postura actual. El gran éxito del aprendizaje autosupervisado sí ocurrió, pero no donde él esperaba originalmente. En vez de consolidarse primero en video y percepción, triunfó de forma “deslumbrante” en lenguaje con los LLM. Aun así, cree que el próximo salto no vendrá de exprimir más esa ruta, sino de construir sistemas capaces de pensar sobre el mundo y no solo de hablar sobre él.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín