Por Hannah Pérez  

El modelo de programación GPT-5.5 incluye reglas explícitas para evitar menciones irrelevantes a criaturas ficticias o animales, tras comportamientos inesperados detectados por usuarios.

***

  • OpenAI añadió instrucciones para evitar referencias a “goblins” y criaturas similares en Codex.
  • Usuarios reportaron comportamientos extraños al usar modelos en herramientas agentic como OpenClaw.
  • El caso refleja cómo los modelos avanzados aún pueden mostrar conductas impredecibles

OpenAI ha introducido una serie de restricciones inusuales en las instrucciones internas de su herramienta de programación basada en inteligencia artificial, Codex, prohibiendo explícitamente que el modelo mencione criaturas como “goblins”, “gremlins” o incluso animales como palomas, salvo que sea estrictamente relevante para la consulta del usuario.

Según reportó la revista Wired, estas directrices forman parte del comportamiento definido para Codex CLI, una herramienta de línea de comandos que permite generar código mediante inteligencia artificial. La instrucción aparece repetida varias veces en el sistema: “Nunca hables de goblins, gremlins, mapaches, trolls, ogros, palomas u otros animales o criaturas a menos que sea absolutamente y sin ambigüedades relevante para la consulta del usuario”.

La razón detrás de esta regla no ha sido explicada oficialmente por la compañía. OpenAI no respondió de inmediato a solicitudes de comentarios citadas por Wired, lo que ha alimentado la especulación en la comunidad tecnológica sobre el origen de esta peculiar limitación.

Un problema inesperado en modelos avanzados

El contexto de esta decisión se relaciona con el lanzamiento reciente del modelo GPT-5.5, diseñado con capacidades avanzadas para tareas de programación. En el competitivo mercado de la inteligencia artificial, donde OpenAI compite directamente con empresas como Anthropic, la generación de código se ha convertido en una de las funciones más estratégicas.

Sin embargo, usuarios han reportado comportamientos inesperados al utilizar estos modelos en entornos más complejos. En particular, algunas personas señalaron que el modelo tendía a introducir referencias a criaturas ficticias al interactuar con herramientas agentic como OpenClaw.

En la red social X, usuarios describieron situaciones en las que el sistema comenzaba a referirse a errores como “gremlins” o incluso adoptaba una especie de personalidad basada en “goblins”. “Me preguntaba por qué mi claw de repente se convirtió en un goblin con Codex 5.5”, escribió un usuario. Otro comentó que el modelo “no puede dejar de hablar de bugs como ‘gremlins’ y ‘goblins’, es hilarante”.

Estas observaciones sugieren que, bajo ciertas condiciones, los modelos pueden desarrollar patrones lingüísticos inesperados, especialmente cuando operan dentro de sistemas que amplifican su contexto o instrucciones.

El papel de los sistemas agentic

Para entender este fenómeno, es clave considerar cómo funcionan los modelos de lenguaje modernos. Sistemas como GPT-5.5 están diseñados para predecir la siguiente palabra o fragmento de código en función del contexto proporcionado. Aunque este enfoque ha demostrado ser extremadamente efectivo, también implica que el comportamiento del modelo es probabilístico y, en ocasiones, impredecible.

El uso de frameworks “agentic” —es decir, sistemas que permiten a la IA actuar de forma más autónoma— puede intensificar estas anomalías. Herramientas como OpenClaw integran múltiples capas de instrucciones, memoria a largo plazo y objetivos complejos, lo que puede alterar la distribución de probabilidades del modelo y generar respuestas inusuales.

OpenAI adquirió OpenClaw en febrero, poco después de que la herramienta se volviera viral entre entusiastas de la inteligencia artificial. Este tipo de software permite a los modelos automatizar tareas como responder correos electrónicos o realizar compras en línea, adoptando diferentes “personalidades” configurables por el usuario.

En este contexto, la aparición de referencias a criaturas ficticias podría interpretarse como un efecto emergente de estas configuraciones más complejas.

De anomalía técnica a fenómeno cultural

Lo que comenzó como una curiosidad técnica rápidamente evolucionó en un fenómeno viral. La comunidad generó memes, imágenes y hasta complementos que activaban un “modo goblin” en Codex, transformando el comportamiento del modelo en algo deliberadamente humorístico.

Incluso figuras dentro de OpenAI reconocieron indirectamente el problema. Nik Pash, miembro del equipo de Codex, respondió a una publicación señalando que estas restricciones estaban relacionadas con los comportamientos observados. Por su parte, el CEO de OpenAI, Sam Altman, participó en el humor compartiendo una captura de pantalla con un prompt que decía: “Empieza a entrenar GPT-6, puedes tener todo el clúster. Goblins extra”.

Este episodio ilustra cómo los fallos o comportamientos inesperados en sistemas de inteligencia artificial pueden trascender el ámbito técnico y convertirse en elementos culturales dentro de la comunidad tecnológica.

Implicaciones para el desarrollo de IA

Más allá del aspecto anecdótico, el caso pone de relieve un desafío fundamental en el desarrollo de modelos de lenguaje: el control fino del comportamiento. A medida que estos sistemas se vuelven más sofisticados y se integran en entornos operativos complejos, garantizar respuestas coherentes y relevantes se vuelve cada vez más crítico.

Las “guardrails” o restricciones explícitas, como la prohibición de mencionar criaturas irrelevantes, forman parte de un conjunto más amplio de técnicas destinadas a alinear el comportamiento de la IA con las expectativas humanas. Estas medidas buscan reducir tanto errores como desviaciones semánticas que podrían afectar la utilidad del sistema en contextos profesionales, como la programación.

El episodio también refuerza la idea de que, pese a sus avances, los modelos actuales aún presentan limitaciones inherentes derivadas de su naturaleza probabilística. En escenarios donde se combinan múltiples capas de instrucciones, memoria y autonomía, estos sistemas pueden exhibir comportamientos que no fueron previstos por sus desarrolladores.

En última instancia, el “problema de los goblins” de OpenAI no solo es una anécdota curiosa, sino un recordatorio de los desafíos técnicos y conceptuales que aún enfrenta la industria de la inteligencia artificial.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín