OpenAI está reordenando su hoja de ruta para construir un sistema capaz de investigar de forma autónoma durante largos periodos. La apuesta, según explicó su director científico Jakub Pachocki, pasa por un “becario de investigación” este mismo año y por un investigador multiagente en 2028, aunque la compañía reconoce que el avance viene acompañado de riesgos técnicos, políticos y de seguridad todavía no resueltos.
***
- OpenAI planea tener para septiembre un “becario de investigación de IA autónomo” capaz de asumir por sí solo problemas concretos durante varios días.
- La empresa quiere presentar en 2028 un investigador de IA multiagente orientado a matemáticas, física, biología, química y problemas de negocio o política pública.
- La compañía admite riesgos serios, desde errores y hackeos hasta usos peligrosos, y apuesta por monitorear la cadena de pensamiento de sus modelos.
OpenAI está reorientando sus recursos de investigación hacia una meta muy concreta: construir un sistema de inteligencia artificial capaz de encargarse por sí solo de problemas grandes y complejos. La idea no es un simple asistente conversacional ni otro copiloto de productividad. La empresa quiere desarrollar lo que describe como un investigador de IA plenamente automatizado.
Según explicó Jakub Pachocki, director científico de la firma, esa meta será la “estrella polar” de OpenAI durante los próximos años. El objetivo agrupa varias líneas de trabajo ya conocidas dentro del sector, como modelos de razonamiento, agentes autónomos e interpretabilidad, pero ahora bajo una sola dirección estratégica.
La hoja de ruta también tiene plazos. OpenAI planea construir para septiembre un “becario de investigación de IA autónomo”, definido como un sistema capaz de hacerse cargo por sí mismo de un pequeño número de problemas de investigación específicos. Ese sistema sería el precursor de un investigador automatizado y multiagente que la empresa espera mostrar en 2028.
La propuesta apunta alto. OpenAI sostiene que ese futuro investigador podría abordar tareas demasiado grandes o complejas para los humanos, desde nuevas pruebas matemáticas o conjeturas, hasta problemas en física, biología, química, negocios y políticas públicas. En teoría, abarcaría cualquier cuestión que pueda formularse en texto, código o incluso garabatos sobre una pizarra.
Una nueva prioridad en plena competencia por la IA
La decisión llega en un momento en el que OpenAI sigue siendo una de las compañías más influyentes del sector, pero ya no opera sin presión. Su ventaja inicial con los grandes modelos de lenguaje ayudó a definir la tecnología de IA que hoy usan cientos de millones de personas, aunque ahora enfrenta competencia intensa por parte de rivales como Anthropic y Google DeepMind.
En ese contexto, lo que la firma decida construir importa más allá de la propia compañía. La conversación con Pachocki, recogida por TechnologyReview.com, muestra que la empresa busca fijar una nueva dirección para la industria y no solo lanzar otra iteración de sus productos actuales.
Pachocki no es un ejecutivo periférico. Tuvo papeles clave en el desarrollo de GPT-4, presentado en 2023, y también en los llamados modelos de razonamiento, una tecnología que apareció en 2024 y que hoy forma parte de los principales chatbots y sistemas basados en agentes. Su visión, por tanto, da pistas sobre la apuesta técnica de OpenAI para la siguiente etapa.
Su formulación fue ambiciosa. Dijo que cree que se acercan a un punto en el que existirán modelos capaces de trabajar indefinidamente de manera coherente, de forma similar a las personas. Aun así, aclaró que los humanos seguirían al mando y fijando los objetivos. Su imagen final fue aún más contundente: un laboratorio de investigación entero dentro de un centro de datos.
Del éxito de Codex a la idea de un becario de investigación
Para entender la apuesta de OpenAI conviene situar a Codex como pieza intermedia. En enero, la empresa lanzó esta aplicación basada en agentes, capaz de generar código para ejecutar tareas en una computadora. Entre otras funciones, puede analizar documentos, crear gráficos y resumir la bandeja de entrada o la actividad en redes sociales.
OpenAI asegura que la mayoría de su personal técnico ya utiliza Codex en su trabajo diario. Para Pachocki, esa herramienta debe verse como una versión muy temprana del futuro investigador de IA. La diferencia crucial está en la duración y en el grado de autonomía: el próximo paso es construir sistemas que necesiten menos guía humana y puedan sostener tareas más largas.
Su definición operativa del “becario de investigación automatizado” es precisa. OpenAI quiere un sistema al que se le puedan delegar tareas que a una persona le llevarían unos pocos días. Esa transición, de tareas breves a encargos de varios días, es central para la visión de la compañía.
Doug Downey, científico del Allen Institute for AI y ajeno a OpenAI, consideró que el interés por la investigación científica automatizada está siendo impulsado por el éxito reciente de los agentes de programación. A su juicio, si herramientas como Codex ya permiten delegar tareas de software bastante sustanciales, resulta natural preguntar si algo parecido puede extenderse a otros ámbitos de la ciencia.
Pachocki respondió a esa pregunta con optimismo. Sostuvo que sí y que el avance depende de continuar por el camino actual. En su visión, un incremento general de la capacidad de los modelos también los hace capaces de trabajar más tiempo sin asistencia, algo que, según dijo, ya pudo observarse en el salto de GPT-3, lanzado en 2020, a GPT-4 en 2023.
A eso se suma el efecto de los modelos de razonamiento. Entrenar a los grandes modelos de lenguaje para resolver problemas paso a paso, con capacidad de retroceder al detectar errores o callejones sin salida, ha mejorado su desempeño en tareas prolongadas. Pachocki dijo estar convencido de que esa familia de modelos seguirá avanzando.
OpenAI también alimenta a sus sistemas con muestras específicas de tareas complejas, incluidos acertijos difíciles tomados de competencias de matemáticas y programación. La idea es obligarlos a aprender a seguir grandes bloques de texto, dividir problemas en múltiples subtareas y luego administrarlas. Según Pachocki, no se trata de crear modelos que solo ganen concursos, sino de probar la tecnología antes de conectarla al mundo real.
Más allá de las matemáticas: hacia la investigación aplicada
Pachocki afirmó que, si OpenAI quisiera, podría construir un matemático automatizado “increíble” con las herramientas que ya tiene. Incluso dijo que sería relativamente fácil. Sin embargo, añadió que eso no es una prioridad inmediata porque, desde su perspectiva, hay tareas más urgentes y más conectadas con problemas relevantes para el mundo real.
Por eso, la empresa busca trasladar lo que Codex ya hace en programación a una noción más amplia de resolución de problemas. El razonamiento detrás de esta idea es claro dentro de OpenAI: si un sistema puede resolver problemas de programación, podría escalar hacia otras categorías de investigación estructurada.
El propio Pachocki puso como ejemplo el cambio que vive el desarrollo de software. Señaló que sus trabajos son muy distintos a los de hace apenas un año y aseguró que ya casi nadie edita código todo el tiempo. En su lugar, describió un esquema donde las personas gestionan un conjunto de agentes Codex.
Ese cambio, según su lectura, es apenas el inicio. OpenAI afirma haber cosechado varios éxitos notables en los últimos meses. Investigadores habrían usado GPT-5, el modelo que impulsa Codex, para encontrar nuevas soluciones a varios problemas matemáticos sin resolver y para superar aparentes puntos muertos en acertijos de biología, química y física.
El directivo sostuvo que ver a estos modelos proponer ideas que le tomarían semanas, como mínimo, a la mayoría de doctorandos, refuerza su expectativa de que esta tecnología acelere mucho más la investigación en el corto plazo. Sin embargo, también reconoció que el desenlace no está garantizado y que entiende por qué todavía hay escepticismo.
Incluso habló desde su experiencia personal. Contó que hace un año ni siquiera usaba autocompletado al programar porque es muy puntilloso con su código y prefiere escribirlo manualmente en vim. Eso cambió al ver lo que podían hacer los modelos recientes. Aunque no les confiaría tareas complejas de diseño, dijo que sí le ahorran tiempo cuando quiere probar ideas rápidamente.
Su ejemplo fue concreto: aseguró que ahora puede hacer que el sistema ejecute durante un fin de semana experimentos que antes le habrían llevado cerca de una semana de programación. Aun así, insistió en que no dejaría que tomara el control completo del diseño de un proyecto. Para él, la utilidad ya es visible, pero todavía no equivale a autonomía total sin supervisión.
Los límites técnicos siguen ahí
Downey coincidió en que la idea de un investigador automatizado es atractiva. Dijo que sería emocionante regresar al día siguiente y encontrar un agente que ya hubiera adelantado mucho trabajo y producido resultados nuevos para revisar. No obstante, advirtió que construir un sistema así puede ser más difícil de lo que sugiere OpenAI.
El verano pasado, Downey y sus colegas evaluaron varios modelos de lenguaje de primer nivel en una serie de tareas científicas. GPT-5, de OpenAI, ocupó el primer lugar, pero aun así cometió muchos errores. Su advertencia fue directa: cuando se encadenan varias tareas, la probabilidad de que todas salgan bien una tras otra tiende a disminuir.
Downey reconoció que el campo avanza con rapidez y aclaró que no ha probado las últimas versiones de GPT-5. OpenAI lanzó GPT-5.4 hace apenas dos semanas, por lo que esos resultados podrían haber quedado desactualizados. Aun con esa salvedad, su comentario refleja una tensión central del momento actual: el rendimiento mejora, pero la confiabilidad acumulada sigue siendo un obstáculo.
Esa tensión importa especialmente si la industria quiere pasar de asistentes útiles a agentes capaces de sostener días enteros de trabajo sin intervención. En programación, los errores pueden ser costosos. En ciencia, políticas públicas o seguridad, podrían ser mucho más delicados.
Riesgos, monitoreo y una concentración de poder sin precedentes
Pachocki reconoció que un sistema capaz de resolver grandes problemas con poca supervisión humana trae riesgos importantes. Dijo que en OpenAI discuten estas amenazas todo el tiempo. Si la IA está cerca de acelerar de forma sustancial la investigación, incluida la propia investigación en IA, entonces el cambio sería enorme y abriría preguntas serias que aún no tienen respuesta.
Entre los escenarios que mencionó figuran un sistema que se descarrila, que sea hackeado o que simplemente malinterprete sus instrucciones. Para abordar esas posibilidades, OpenAI está apostando por entrenar a sus modelos de razonamiento para que compartan detalles de lo que hacen mientras trabajan. Esa técnica se conoce como monitoreo de la cadena de pensamiento.
En términos simples, se busca que los modelos vayan dejando notas sobre su proceso en una especie de bloc interno. Luego, investigadores u otros modelos pueden revisar esas anotaciones para detectar conductas problemáticas antes de que se conviertan en algo más grave. OpenAI publicó recientemente nuevos detalles sobre cómo usa internamente ese enfoque para estudiar Codex.
Pachocki cree que, cuando existan sistemas que trabajen de manera mayormente autónoma durante mucho tiempo dentro de grandes centros de datos, ese monitoreo será una herramienta clave. La lógica no es impedir de antemano cualquier mal comportamiento, algo que hoy parece inviable, sino identificarlo a tiempo. También admitió que los grandes modelos de lenguaje siguen sin entenderse lo suficiente como para controlarlos por completo.
Por eso planteó que los modelos muy potentes deberían desplegarse en entornos aislados, desconectados de cualquier cosa que pudieran romper o usar para causar daño. El trasfondo no es menor. Herramientas de IA ya se han usado para idear nuevos ciberataques y algunos temen que puedan servir para diseñar patógenos sintéticos con fines bélicos o criminales.
Su lectura general fue contundente. Dijo que se trata de un poder extremadamente concentrado y en ciertos aspectos sin precedentes. Imaginó un escenario en el que un centro de datos pueda hacer todo el trabajo que hoy realizan organizaciones como OpenAI o Google, reduciendo tareas antes reservadas a grandes equipos humanos a la operación de apenas unas pocas personas.
En ese punto trasladó parte de la responsabilidad a los gobiernos. Consideró que se trata de un gran desafío de política pública. Sin embargo, el asunto es complejo porque también existen dudas sobre el papel de los propios Estados. El gobierno de Estados Unidos, por ejemplo, quiere usar IA en el campo de batalla, y el debate reciente entre Anthropic y el Pentágono dejó claro que no hay consenso social sobre dónde deben trazarse las líneas rojas.
La situación se volvió aún más sensible porque, tras esa controversia, OpenAI firmó un acuerdo con el Pentágono. Consultado sobre su responsabilidad personal como uno de los arquitectos del futuro de la IA, Pachocki dijo que sí la siente, pero añadió que el problema no puede resolverse solo a través de las decisiones técnicas o de producto de OpenAI. A su juicio, hará falta una participación amplia de los responsables de políticas públicas.
¿Qué tan cerca está esa visión?
La pregunta final sigue abierta. ¿Estamos realmente en camino hacia la clase de IA que imagina OpenAI? Downey respondió con cautela e incluso con humor. Dijo que lleva un par de décadas en este campo y que ya no confía en sus propias predicciones sobre cuán cerca o lejos están ciertas capacidades.
Ese escepticismo contrasta con la misión declarada de OpenAI, que busca asegurar que la inteligencia artificial general beneficie a toda la humanidad y, al mismo tiempo, pretende ser la primera en construirla. Aun así, durante la conversación, Pachocki fue cuidadoso con el término AGI y dijo que prefería referirse a una tecnología económicamente transformadora.
También marcó distancia respecto de la idea de que los modelos actuales sean cerebros humanos digitales. Señaló que los grandes modelos de lenguaje se parecen superficialmente a las personas en algunos aspectos porque han sido entrenados principalmente con personas hablando, pero no fueron moldeados por la evolución para ser realmente eficientes.
De cara a 2028, tampoco prometió sistemas tan inteligentes como los humanos en todos los sentidos. De hecho, dijo explícitamente que no espera llegar a ese punto para entonces. Su tesis es otra: no hace falta igualar a las personas en todas sus capacidades para que una IA sea profundamente transformadora en términos económicos, científicos y operativos.
En otras palabras, la apuesta de OpenAI no depende de alcanzar una versión total de la inteligencia humana. Le basta con crear sistemas lo bastante competentes como para asumir tramos significativos del trabajo intelectual. Si la compañía cumple su calendario, los próximos meses ofrecerán una primera prueba de esa promesa con el debut de su becario de investigación autónomo.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
WordPress.com abre la puerta a agentes IA que escriben y publican contenido
Europa
Oficial francés expone la ubicación de un portaaviones nuclear al publicar una carrera en Strava
Empresas
Blue Origin de Jeff Bezos entra en la carrera por centros de datos orbitales
Empresas