OpenAI prohíbe que su IA Codex hable de duendes, trolls y mapaches: este es el motivo

Usuarios descubrieron que algunos modelos de IA empezaban a obsesionarse con “goblins” y “gremlins” al programar

OpenAI prohíbe a su IA Codex hablar sobre criaturas ficticias.

OpenAI incluyó una regla inusual dentro de las instrucciones internas de Codex CLI, su nueva herramienta de inteligencia artificial orientada a programación: el sistema tiene prohibido mencionar duendes, trolls, gremlins, mapaches, palomas y otras criaturas salvo que sea “absolutamente y sin ambigüedades relevante” para la consulta del usuario. La medida llamó la atención de la comunidad tecnológica luego de que desarrolladores descubrieran el fragmento oculto en las directrices del modelo.

La línea apareció en las instrucciones de comportamiento que acompañan a Codex CLI, una herramienta basada en IA que permite generar y modificar código desde la línea de comandos. El texto, repetido varias veces dentro del sistema, dice literalmente: “Nunca hables de duendes, gremlins, mapaches, trolls, ogros, palomas u otros animales o criaturas a menos que sea absolutamente y sin ambigüedades relevante para la consulta del usuario”.

PUBLICIDAD

Aunque OpenAI no explicó oficialmente el origen de esta norma, usuarios y desarrolladores creen haber encontrado la razón detrás de la curiosa restricción. Según varios reportes publicados en X y foros especializados, algunos modelos recientes de OpenAI comenzaron a desarrollar comportamientos extraños relacionados con criaturas ficticias cuando eran utilizados junto a herramientas autónomas como OpenClaw.

Read more!
OpenAI le prohíbe a su sistema hablar sobre duendes. (Imagen Ilustrativa Infobae)

OpenClaw es un sistema que permite a una inteligencia artificial tomar control parcial de una computadora y ejecutar acciones como responder correos electrónicos, navegar por internet o automatizar tareas. La herramienta ganó notoriedad meses atrás entre entusiastas de la IA por su capacidad de funcionar como un asistente digital autónomo.

PUBLICIDAD

Sin embargo, algunos usuarios detectaron que ciertos modelos empezaban a referirse a errores de software y problemas técnicos usando términos como “goblins”, “gremlins” o “duendes”. Otros afirmaban que la IA incorporaba referencias constantes a criaturas fantásticas incluso en conversaciones donde no tenían relación alguna.

“Últimamente lo uso mucho y no para de llamar a los bugs ‘gremlins’ y ‘goblins’, es divertidísimo”, escribió un usuario en X tras descubrir el comportamiento. Otro comentó: “Me preguntaba por qué mi OpenClaw se comportaba de repente como un duende con Codex 5.5”.

Usuarios se dieron cuenta sobre las reglas internas que tiene OpenAI. REUTERS/Dado Ruvic/Illustration//File Photo

La situación terminó convirtiéndose rápidamente en un meme dentro de la comunidad tecnológica. Usuarios comenzaron a generar imágenes creadas con IA mostrando duendes trabajando en centros de datos, mientras que algunos desarrolladores crearon complementos humorísticos para activar un supuesto “modo goblin” en Codex.

El fenómeno, aunque anecdótico, pone de relieve uno de los principales desafíos actuales de los modelos de inteligencia artificial generativa: su comportamiento impredecible.

Los sistemas como GPT-5.5 funcionan prediciendo cuál es la palabra o secuencia más probable que debería aparecer después de una instrucción determinada. Aunque esta tecnología ha avanzado enormemente y puede producir respuestas que parecen humanas, sigue basándose en probabilidades estadísticas, lo que puede generar asociaciones inesperadas o patrones extraños.

Especialistas señalan que este tipo de comportamientos se vuelve más frecuente cuando los modelos operan en entornos “agénticos”, es decir, cuando la IA tiene acceso continuo a instrucciones adicionales, memoria persistente y capacidad de ejecutar acciones complejas en dispositivos reales.

OpenAI tiene una regla clara para sus modelos de IA.

En este contexto, OpenClaw se convirtió en un caso relevante. OpenAI adquirió la herramienta en febrero, poco después de que se volviera viral entre programadores y entusiastas de la automatización. Desde entonces, la compañía trabaja en integrarla dentro de sus ecosistemas de IA avanzada.

El interés estratégico de OpenAI en herramientas de programación también responde a la fuerte competencia existente en el sector. Empresas como Anthropic, Google y Microsoft están acelerando el desarrollo de modelos especializados en generación de código, considerados una de las áreas más rentables y prometedoras de la inteligencia artificial.

La revelación sobre la prohibición de hablar de duendes incluso llegó hasta Sam Altman, director ejecutivo de OpenAI, quien se sumó al humor colectivo compartiendo una imagen en la que aparecía un supuesto mensaje para GPT-6 que decía: “Empieza a entrenar GPT-6, puedes quedarte con todo el clúster. Goblins adicionales”.

Sam Altman bromea sobre la prohibición de OpenAI de hablar sobre duendes.

Aunque el episodio parece anecdótico, refleja un problema real para la industria: controlar el comportamiento de modelos cada vez más complejos y autónomos. A medida que las IA ganan capacidad para interactuar con computadoras, aplicaciones y sistemas reales, compañías como OpenAI buscan reducir respuestas inesperadas que puedan afectar la experiencia de los usuarios o comprometer la confiabilidad de sus herramientas.

Read more!