Por Canuto  

OpenClaw publicó la versión 2026.4.14, una actualización amplia centrada en proveedores de modelos, mejoras para la familia GPT-5 y una larga lista de correcciones en seguridad, rendimiento, canales, memoria, navegador y herramientas. El lanzamiento también añade soporte preventivo para gpt-5.4-pro y refuerza varias rutas críticas del sistema.
***

  • La versión 2026.4.14 incorpora soporte de compatibilidad futura para gpt-5.4-pro y mejoras explícitas de turnos para la familia GPT-5.
  • El lanzamiento corrige decenas de fallas en Ollama, Codex, Telegram, Slack, navegador, memoria, plugins y colas de entrega.
  • OpenClaw también endurece controles de seguridad en SSRF, allowlists, configuración sensible e interacciones entre agentes y herramientas.


OpenClaw publicó la versión 2026.4.14 como una actualización de gran alcance enfocada sobre todo en el proveedor de modelos. Según el registro oficial del lanzamiento, el paquete también incorpora mejoras explícitas de turnos para la familia GPT-5, corrige problemas relacionados con proveedores de canales y suma refactorizaciones en el núcleo del código para elevar el rendimiento general.

La etiqueta del lanzamiento fue publicada el 14 de abril por vincentkoc. Además, el repositorio indica que la versión y el commit asociado aparecen firmados con firma verificada del autor del commit, Peter Steinberger, identificado como steipete, junto con la huella digital de clave SSH WmI9lVtd7F2c5XyRHbZVO3yYYJzwsSNzcZQMPT147HI.

Para quienes no siguen de cerca este tipo de software, OpenClaw es una plataforma que integra modelos de IA, herramientas, agentes, canales de mensajería y componentes de automatización. Por eso, una actualización como esta no solo afecta el comportamiento de los modelos, sino también la forma en que el sistema procesa sesiones, aplica políticas de seguridad, enruta respuestas y mantiene el contexto operativo.

Uno de los puntos más visibles del lanzamiento es la incorporación de soporte de compatibilidad futura para gpt-5.4-pro dentro de OpenAI Codex y models. El cambio añade precios y límites de Codex, además de visibilidad de lista y estado, antes de que el catálogo upstream se actualice formalmente. El crédito por esta mejora fue atribuido a jepson-liu.

En paralelo, OpenClaw añadió una mejora para temas de foros en Telegram. A partir de esta versión, el sistema puede mostrar nombres de temas legibles por humanos dentro del contexto del agente, en metadatos del prompt y en metadatos de hooks de plugins, aprendiendo esos nombres a partir de mensajes de servicio de foros de Telegram. Más adelante, otra corrección complementa esto al persistir los nombres aprendidos en el almacén sidecar de sesión de Telegram, con el fin de que el contexto siga utilizándolos incluso después de un reinicio.

Soporte para modelos y proveedores gana protagonismo

El énfasis principal de la actualización está en la capa de proveedores y modelos. Entre las correcciones figura una para Codex que ahora incluye apiKey en la salida del catálogo del proveedor. Con ello, el validador Pi ModelRegistry deja de rechazar la entrada y de descartar silenciosamente todos los modelos personalizados de cada proveedor definidos en models.json.

También se corrigió la normalización de referencias de proveedor y modelo en herramientas de imagen y PDF. Antes, ejecuciones válidas podían rechazar modelos de visión de Ollama como desconocidos simplemente porque la ruta de la herramienta omitía el paso usual de normalización de referencias. El ajuste busca eliminar ese falso negativo.

En la misma línea, OpenClaw corrigió la preservación de prefijos de proveedor no OpenAI al normalizar referencias de modelos de embeddings compatibles con OpenAI. Esa falla había provocado errores del tipo Unknown memory embedding provider en proveedores de memoria respaldados por proxy.

Otro cambio relevante afecta a GitHub Copilot y thinking. Con esta versión, github-copilot/gpt-5.4 puede usar razonamiento xhigh, una modificación que busca alinearlo con el resto de la familia GPT-5.4. Además, OpenClaw pasó a mapear el pensamiento minimal al esfuerzo de razonamiento compatible low en solicitudes GPT-5.4 de OpenAI, evitando fallas de validación en ejecuciones embebidas.

La versión también canonicaliza el alias heredado openai-codex/gpt-5.4-codex hacia openai-codex/gpt-5.4, aunque mantiene el respeto por overrides específicos del alias y del nombre canónico. Junto a eso, se sumó un ajuste para mantener limpios los diagnósticos de archivos de autenticación malformados del CLI de Codex, enviándolos al logger de depuración en vez de a la salida estándar.

En el frente de onboarding para proveedores personalizados, OpenClaw pasó a usar max_tokens=16 en sondas de verificación compatibles con OpenAI. El objetivo es que endpoints más estrictos ya no rechacen comprobaciones de incorporación que solo requieren una completion pequeña.

Ollama, memoria y contexto reciben numerosas correcciones

La integración con Ollama aparece repetidamente a lo largo del changelog. Una de las correcciones más importantes reenvía el timeout configurado de embedded-run al ajuste global de timeout de stream de undici. Así, las ejecuciones locales lentas de Ollama dejan de heredar el corte de stream predeterminado y pasan a respetar el timeout definido por el operador.

Otra mejora envía stream_options.include_usage para completions en streaming de Ollama. Esto permite que las ejecuciones locales reporten uso real en lugar de recurrir a conteos falsos de prompt-token, los cuales podían activar compactación prematura del contexto.

En hooks vinculados a Ollama, la generación del slug de memoria de sesión respaldada por LLM ahora puede respetar un override explícito de agents.defaults.timeoutSeconds. Antes, el proceso abortaba siempre tras 15 segundos y caía silenciosamente en nombres de archivo genéricos.

La memoria también recibió cambios más profundos. OpenClaw restauró el adaptador integrado de embeddings ollama en memory-core para que vuelva a funcionar memorySearch.provider: “ollama”. Al mismo tiempo, el sistema añade claves de caché conscientes del endpoint, evitando que distintos hosts de Ollama reutilicen embeddings entre sí.

Otra modificación importante en memoria mueve la memoria recuperada a la ruta oculta no confiable de prefijo de prompt, en vez de inyectarla en el system prompt. Además, etiqueta los campos visibles de la línea de estado Active Memory e incorpora en logs de depuración del gateway el proveedor y modelo de recall resueltos, para que la traza refleje con mayor fidelidad lo que realmente vio el modelo.

OpenClaw también dejó de tratar el archivo heredado memory.md en minúsculas como una segunda colección raíz predeterminada. Con ello, el recall QMD ya no busca colecciones fantasma memory-alt-* y mantiene alineado el fallback de memoria raíz builtin/QMD.

En el motor de contexto, la nueva versión compacta sesiones propiedad del engine desde el primer delta del loop de herramientas y preserva el fallback de ingest cuando falta afterTurn. Además, el mantenimiento de turno opt-in pasa a ejecutarse como un trabajo en segundo plano consciente del estado idle, para que el siguiente turno en primer plano no quede esperando mantenimiento proactivo.

Más controles de seguridad en navegador, canales y configuración

Uno de los bloques más extensos del lanzamiento está dedicado a seguridad. En Slack, OpenClaw ahora aplica la allowlist global configurada de propietarios allowFrom a eventos interactivos de block-action y modal en canales. La verificación exige un id de remitente esperado y rechaza tipos de canal ambiguos, cerrando una vía por la cual disparadores interactivos podían evadir la intención documentada de la allowlist cuando no existía una lista de usuarios.

En media-understanding y attachments, el sistema pasa a fallar de forma cerrada cuando una ruta local de adjunto no puede resolverse canónicamente mediante realpath. El cambio busca impedir que un error en realpath degrade la comprobación de allowlist de raíces canónicas hacia una comparación no canónica. Si el adjunto también tiene URL, todavía puede recurrirse a la obtención por red.

La herramienta gateway orientada al modelo ahora rechaza llamadas config.patch y config.apply si estas habilitarían por primera vez cualquier bandera listada por openclaw security audit. Entre los ejemplos citados figuran dangerouslyDisableDeviceAuth, allowInsecureAuth, dangerouslyAllowHostHeaderOriginFallback, hooks.gmail.allowUnsafeExternalContent y tools.exec.applyPatch.workspaceOnly: false.

El navegador recibió varios endurecimientos vinculados a SSRF. OpenClaw restauró la navegación por hostname bajo la política SSRF predeterminada, mientras conserva accesible el modo estricto explícito desde la configuración. A la vez, normaliza el alias heredado browser.ssrfPolicy.allowPrivateNetwork: false al marcador canónico estricto, evitando que instalaciones antiguas se amplíen silenciosamente hacia la ruta no estricta.

También se aplicó la política SSRF a rutas de snapshot, screenshot y tab, y se mantuvieron accesibles las comprobaciones de disponibilidad de CDP loopback bajo configuraciones estrictas. El sistema permite además que disponibilidad de Chrome local gestionado, sondas de estado y control CDP loopback gestionado omitan la política SSRF del navegador para su propio plano de control loopback, con el fin de que no se clasifique erróneamente un navegador hijo sano como no alcanzable tras el inicio.

En otras áreas sensibles, OpenClaw forzó degradación de propietario para eventos de sistema hook:wake no confiables, aplicó comprobaciones de allowlist de remitentes en invocaciones de inicio de sesión SSO de Microsoft Teams y redactó campos alias sourceConfig y runtimeConfig dentro de redactConfigSnapshot.

Canales, colas y herramientas corrigen fallas operativas persistentes

La actualización corrige una variedad de comportamientos en plataformas de mensajería y transporte. En Telegram, además de los temas de foro, las descargas de medios ahora pueden confiar en un proxy explícito configurado por el operador para la resolución DNS del objetivo tras las comprobaciones de política de hostname. Eso apunta a resolver errores del tipo could not download media en instalaciones detrás de proxy.

En heartbeat y temas de Telegram, OpenClaw mantiene respuestas de heartbeat aisladas en el tema de foro vinculado cuando target=last, en vez de dejarlas caer en el chat raíz del grupo. Además, comandos slash de estado de solo lectura pueden omitir turnos de temas ocupados, mientras que /export-session sigue en el carril normal para no entrelazarse con mutaciones de sesión en vuelo.

En Discord, las interacciones nativas /status pasan a devolver la tarjeta de estado real y dejan de caer en el acuse sintético ✅ Done. cuando el despachador genérico no produce una respuesta visible. En BlueBubbles, el sistema actualiza de forma perezosa la caché server-info al enviar cuando se solicitan hilos de respuesta o efectos de mensaje y el estado es desconocido.

La cola de entrega saliente ahora persiste el contexto session originario en entradas de entrega en cola y lo reproduce durante la recuperación. Así, los envíos write-ahead pueden conservar su contexto original de política de medios tras un reinicio. En otra corrección operativa, OpenClaw suprime payloads internos placeholder de relay-status como No channel reply. para evitar filtraciones de texto interno a usuarios finales.

Las colas de auto-reply también cambiaron. El sistema evita que sendPolicy: “deny” bloquee el procesamiento de mensajes entrantes, preservando el turno del agente aunque suprima toda entrega saliente. Al mismo tiempo, divide drenajes de seguimiento en modo collect en grupos contiguos por contexto de autorización por mensaje, para impedir que elementos de distintos remitentes o configuraciones de ejecución se procesen bajo el contexto de aprobación de una ejecución previa.

En herramientas y agentes, OpenClaw solo marca como contados los reintentos por herramienta desconocida en streaming cuando un mensaje transmitido realmente clasifica una herramienta no disponible. También trata las rutas con letra de unidad de Windows, como C:…, como rutas absolutas al resolver sandbox y rutas de lectura.

Las compilaciones y subagentes no quedaron fuera. El proyecto añadió y aseguró la inclusión de dist/agents/subagent-registry.runtime.js en builds npm, con el fin de evitar bloqueos en estado queued o errores ERR_MODULE_NOT_FOUND en runtime. De forma relacionada, se unificó la resolución del entrypoint del servicio gateway alrededor del entrypoint canónico empaquetado, para que update, reinstall y doctor repair no diverjan entre dist/entry.js y dist/index.js.

Finalmente, la herramienta doctor recibió varios ajustes, entre ellos evitar que openclaw doctor –repair o la reinstalación del servicio vuelvan a incrustar secretos respaldados por dotenv en unidades systemd del usuario, y añadir un sidecar doctor-contract dedicado para Slack. La resolución de plugins también fue optimizada con caché de búsquedas externas de catálogo preferOver dentro de cada pasada de auto-habilitación, reduciendo carga de CPU en configuraciones grandes.

En conjunto, la versión 2026.4.14 muestra una estrategia de endurecimiento amplio. No se trata de una única función estrella, sino de una revisión extensa del comportamiento de proveedores, memoria, navegador, agentes, seguridad y mensajería. Para operadores que dependen de integraciones complejas con modelos y canales, esta clase de actualización puede ser decisiva para mantener estabilidad y reducir riesgos en producción.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín