Por Canuto  

Una investigación reciente puso en duda la capacidad de OpenClaw para detectar habilidades maliciosas en su plataforma, justo cuando crece el uso de agentes de IA capaces de interactuar con billeteras, datos sensibles y servicios externos. El hallazgo reaviva un debate clave para desarrolladores y usuarios: las herramientas de terceros pueden parecer benignas, pero seguir siendo una vía real de explotación.
***

  • Investigadores concluyeron que el sistema de escaneo de habilidades de OpenClaw no constituye una barrera de seguridad sólida.
  • ClawHub puede etiquetar algunas habilidades como benignas, incluso cuando VirusTotal las considera sospechosas o cuando pueden ocultar comportamientos inesperados.
  • Los expertos recomiendan ejecutar estas habilidades en entornos sandbox y evitar concederles acceso a billeteras criptográficas o información sensible.

 

El auge de los agentes de inteligencia artificial está abriendo nuevas oportunidades de automatización, pero también nuevos vectores de riesgo. En ese contexto, una investigación reciente volvió a poner el foco sobre OpenClaw, una plataforma que permite crear agentes y ampliar sus capacidades mediante habilidades desarrolladas por terceros.

El problema, según el reporte citado por Cryptopolitan, es que el sistema de revisión de OpenClaw todavía no ofrece un límite de seguridad confiable. Aunque la plataforma ya incorporó mecanismos de escaneo y moderación, los investigadores concluyeron que una habilidad aparentemente inofensiva aún puede esconder vulnerabilidades o comportamientos explotables.

La advertencia llega en un momento especialmente delicado. A medida que más usuarios y desarrolladores integran agentes de IA para ejecutar tareas reales, también aumenta el interés por conectarlos con herramientas capaces de operar sobre datos delicados, credenciales privadas e incluso billeteras cripto.

OpenClaw permite crear agentes y ejecutarlos tanto en una máquina local como en un servidor. Sin embargo, las habilidades que se instalan junto a esos agentes pueden heredar el mismo acceso a recursos y herramientas, lo que amplía de inmediato el alcance del riesgo si una de ellas fue diseñada con intenciones maliciosas o contiene código vulnerable.

Esto es especialmente relevante en el ecosistema blockchain. Algunas habilidades pueden intervenir en tareas como interacciones en cadena o acceso a billeteras, por lo que una mala revisión o una evaluación incompleta puede exponer activos y secretos críticos. En otras palabras, el riesgo no es solo teórico.

La investigación sugiere que la publicación de habilidades de terceros sigue siendo uno de los puntos más delicados en la construcción de agentes de IA. El reto consiste en que estos componentes combinan código, instrucciones en lenguaje natural y comportamiento en tiempo de ejecución, una mezcla que complica la verificación con métodos tradicionales.

Cómo revisa OpenClaw las habilidades

De acuerdo con la información reseñada por Cryptopolitan, ClawHub utiliza VirusTotal y también un sistema interno de moderación de OpenClaw para analizar las habilidades antes de su distribución. El resultado de esos controles permite clasificar cada habilidad y mostrar advertencias al usuario durante el proceso de instalación.

En principio, el enfoque parece razonable. Si una habilidad es identificada como completamente maliciosa, no se permite su descarga. El problema aparece en las zonas grises, cuando una misma habilidad recibe señales contradictorias entre las herramientas de análisis o cuando todavía no ha sido marcada por todos los sistemas.

Uno de los escenarios descritos por los investigadores ocurre cuando VirusTotal considera sospechosa una habilidad, pero OpenClaw la clasifica como benigna. En ese caso, el usuario recibe una advertencia, aunque todavía puede confirmar la instalación. El diseño, por tanto, se apoya en buena medida en la decisión final del usuario.

Ese esquema introduce una debilidad importante. En la práctica, una advertencia no equivale a una barrera. Si el componente se instala y hereda permisos del agente principal, el daño potencial puede seguir siendo considerable, sobre todo en entornos donde el agente tiene acceso a credenciales, documentos privados o servicios financieros.

OpenClaw también ofrece controles de ejecución y sandboxing, pero estos mecanismos son opcionales. Eso significa que no existe un límite estricto por defecto para las habilidades de terceros, algo que preocupa a los investigadores dado el tipo de tareas que estos agentes pueden llegar a ejecutar.

El sandboxing basado en Docker, por ejemplo, no está activado de forma obligatoria. Además, con esta capa desactivada algunas herramientas permanecen disponibles, lo que deja abierta una superficie adicional de exposición. Para muchos usuarios, el camino más directo termina siendo instalar y ejecutar sin aislamiento fuerte.

Por qué las habilidades agénticas son más difíciles de auditar

La seguridad tradicional suele apoyarse en firmas conocidas, análisis estático, expresiones regulares y detección de patrones sospechosos. OpenClaw ya implementó algunos controles de ese tipo, incluyendo verificaciones orientadas a detectar código capaz de leer secretos y enviarlos hacia afuera.

Ese enfoque ha funcionado durante años en otras áreas de ciberseguridad, donde se monitorean procesos, solicitudes y comportamiento de software malicioso. No obstante, las habilidades para agentes de IA elevan la complejidad porque no son solamente paquetes de código convencional.

Según la investigación, estos componentes combinan instrucciones en lenguaje natural, lógica programática y ejecución dinámica. Eso puede generar puntos ciegos para las herramientas de seguridad tradicionales, que no siempre capturan comportamientos agénticos o secuencias de acciones peligrosas que emergen solo al ejecutarse.

Como una capa adicional, OpenClaw también recurre a escaneo con IA para intentar detectar conductas más riesgosas que no aparecen en una revisión estática o mediante reglas simples. Aun así, los investigadores remarcan que este método tampoco es exhaustivo y se enfoca más bien en identificar inconsistencias o código explotable muy evidente.

Dicho de otra manera, la IA puede ayudar a revisar la consistencia interna de una habilidad, pero no garantiza que el componente esté libre de comportamientos inesperados. En sistemas que pueden mover fondos, leer credenciales o interactuar con servicios externos, esa diferencia resulta crítica.

Los investigadores también observaron una asimetría temporal en el proceso de aprobación. El sistema de verificación y moderación de OpenClaw podía aprobar habilidades con rapidez, mientras que VirusTotal en ocasiones tardaba días en marcar una adición como problemática. Esa ventana temporal deja margen para que un componente cuestionable circule antes de ser plenamente detectado.

El riesgo de cambios posteriores y confianza excesiva

Otro de los hallazgos fue que era posible añadir explotaciones a habilidades que ya habían sido aprobadas. Esto agrava la preocupación, porque una revisión inicial favorable puede transmitir una falsa sensación de seguridad tanto al usuario final como al desarrollador que integra la herramienta en su flujo de trabajo.

Si una habilidad obtiene el sello de benignidad y luego incorpora comportamiento riesgoso, el sistema de confianza puede romperse con facilidad. El problema no se limita a la detección de malware evidente, sino a la posibilidad de introducir cambios sutiles que alteren el comportamiento de un agente con acceso privilegiado.

En ese sentido, el modelo de OpenClaw parece depender en parte de reseñas y advertencias, más que de un cerco técnico estricto. Para los investigadores, ese enfoque no ofrece protección directa durante la ejecución de habilidades de agentes, que es precisamente cuando pueden materializarse los daños.

El riesgo se multiplica en entornos de alto valor. Un agente conectado a una billetera criptográfica, una cuenta con permisos administrativos o una base de datos con información sensible no debería confiar ciegamente en componentes de terceros solo porque una plataforma los etiquetó como benignos.

La advertencia es clara para desarrolladores y operadores: incluso una habilidad de apariencia normal puede ocultar una explotación. Por ello, los expertos recomiendan asumir que el escaneo previo no es suficiente y establecer controles adicionales antes de permitir la ejecución real de estos módulos.

Entre las medidas sugeridas figura el uso de sandboxing y de herramientas que impidan o limiten la ejecución de habilidades, incluso cuando estas hayan sido marcadas como benignas. La recomendación también incluye evitar su uso en ambientes con acceso a billeteras cripto u otra información especialmente sensible.

Un desafío mayor para la industria de agentes IA

El caso de OpenClaw refleja una tensión más amplia dentro del desarrollo de agentes autónomos. Cuantas más capacidades se delegan a estos sistemas, mayor es el valor de las habilidades externas que prometen ampliar sus funciones. Pero al mismo tiempo, crece el costo potencial de una mala validación.

Para los usuarios nuevos en el tema, el concepto es similar al de instalar extensiones o complementos en un navegador. La diferencia es que aquí los módulos pueden formar parte de un agente con capacidad para leer información, operar servicios, ejecutar instrucciones complejas y tomar acciones enlazadas a sistemas financieros.

Por eso, la discusión no gira solo en torno a OpenClaw, sino a la arquitectura de confianza que necesitarán los mercados de habilidades para IA. El desafío es construir mecanismos capaces de revisar no solo el código, sino también la intención, el contexto y la conducta efectiva de cada módulo en ejecución.

Hasta ahora, la investigación sugiere que la combinación de escaneo automatizado, moderación interna y avisos al usuario no basta para tratar este problema como resuelto. En un escenario donde la adopción de agentes de IA se acelera, la seguridad de las habilidades de terceros se perfila como una de las batallas más urgentes para el sector.

En el corto plazo, el mensaje para desarrolladores parece inequívoco: aplicar aislamiento, reducir privilegios y no otorgar acceso a activos de alto valor sin controles estrictos. En el mundo cripto, donde una sola credencial comprometida puede traducirse en pérdidas irreversibles, esa prudencia deja de ser una opción y pasa a ser una necesidad operativa.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín