Ledger presentó una nueva hoja de ruta de seguridad enfocada en inteligencia artificial y creó un puesto ejecutivo poco habitual para defender el control humano sobre agentes automatizados. La empresa también prepara un sistema de “prueba de humanidad” basado en hardware, con el que busca diferenciar a personas reales de bots y agentes de IA sin recurrir a biometría.
***
- Ledger nombró a Ian Rogers como director de agencia humana y le encargó liderar sus iniciativas de IA.
- La compañía quiere limitar los permisos de los agentes de IA y sumar revisiones humanas antes de ejecutar acciones sensibles.
- Su futuro sistema Proof of Human buscará verificar interacciones humanas únicas sin usar datos biométricos ni reputación social.
Ledger, conocida por sus billeteras físicas para criptomonedas, anunció un nuevo paso en su estrategia de seguridad ante el avance de la inteligencia artificial. La empresa creó el cargo de director de agencia humana y lo asignó a Ian Rogers, actual director de experiencia, con la misión de supervisar cómo se integran los agentes de IA sin sacrificar el control individual.
La decisión llega en un momento en que los llamados agentes de IA ganan terreno dentro y fuera del ecosistema cripto. Se trata de programas capaces de ejecutar objetivos específicos con poca o ninguna supervisión humana constante, una promesa de eficiencia que también abre riesgos operativos, de seguridad y de gobernanza para usuarios y empresas.
Según explicó Rogers a DL News, una de las mayores amenazas aparece cuando estos sistemas reciben acceso excesivo a credenciales sensibles, billeteras y decisiones financieras. El ejecutivo advirtió que su velocidad y escala pueden ser útiles, pero también peligrosas cuando no existen permisos estrictos ni mecanismos sólidos de autenticación.
Para lectores menos familiarizados con este tema, el problema de fondo no es solo que la IA automatice tareas. En criptomonedas, donde una firma o una aprobación puede mover activos de forma irreversible, entregar demasiado poder a un agente automatizado eleva el riesgo de errores, abuso o secuestro por parte de atacantes.
Rogers resumió esa preocupación de forma directa. Dijo que estos agentes aumentan en número y pueden actuar increíblemente rápido, algo positivo hasta que algo sale mal. También señaló que, si no están limitados estrictamente por permisos y autenticados, los atacantes pueden secuestrarlos o engañarlos para que hagan lo incorrecto.
La nueva hoja de ruta de Ledger sobre IA intenta responder a ese entorno. El plan busca definir mejor cómo operan estos agentes, qué pueden hacer y bajo qué condiciones deberían interactuar con herramientas sensibles como una billetera física o un sistema de autorización vinculado a fondos digitales.
Una hoja de ruta centrada en identidad, permisos y supervisión
El primer eje del plan consiste en vincular la identidad de los agentes de IA con hardware como los dispositivos de Ledger. La idea es que usuarios y observadores puedan saber de dónde proviene un agente y quién lo controla, una capa de trazabilidad que la firma considera clave para reducir opacidad en operaciones automatizadas.
En la práctica, este tipo de enfoque apunta a resolver un problema creciente. Si un agente va a sugerir o ejecutar acciones sobre activos, no basta con que sea eficiente. También debe ser identificable, verificable y estar sujeto a límites definidos por la persona dueña de la cuenta o del dispositivo.
Más adelante este año, Ledger planea introducir una función llamada human-in-the-loop. Bajo ese modelo, los agentes propondrán acciones para que los usuarios las revisen antes de autorizar su ejecución. Es un concepto que en seguridad y automatización suele emplearse para mantener a una persona dentro del proceso de decisión cuando hay consecuencias importantes.
Además, los usuarios podrán establecer límites concretos para esos agentes. Entre ellos figuran topes de gasto y permisos específicos para contratos inteligentes, de modo que una herramienta automatizada no tenga acceso abierto a más funciones de las necesarias para cumplir una tarea determinada.
Ese detalle no es menor dentro del sector cripto. Muchas pérdidas ocurren por permisos demasiado amplios, malas configuraciones o firmas que conceden capacidades excesivas a aplicaciones y contratos. Aplicado a agentes de IA, el mismo riesgo podría multiplicarse si esos sistemas operan a gran velocidad y en múltiples entornos a la vez.
Ledger enmarca estas medidas como una forma de asegurar que la adopción de IA no erosione la autonomía del usuario. La empresa no plantea bloquear la automatización, sino construir controles para que la conveniencia no termine desplazando la responsabilidad humana sobre decisiones que pueden comprometer patrimonio digital.
Proof of Human, la propuesta de Ledger para distinguir personas de agentes
La fase final de esta hoja de ruta llegará en los últimos tres meses del año con el desarrollo de Proof of Human, un nuevo sistema orientado a combatir spam de bots y cuentas múltiples. Su objetivo es ayudar a demostrar que una interacción con un agente proviene de una persona única, y no simplemente de otro agente automatizado.
Este tipo de verificación se vuelve cada vez más relevante en internet y en Web3. A medida que se multiplican los agentes autónomos, distinguir entre actividad humana genuina y actividad sintética adquiere valor en ámbitos que van desde la participación social hasta la autorización de transacciones y el acceso a determinados servicios.
Ledger no es la primera firma cripto que intenta resolver ese problema. World, un proyecto respaldado por Sam Altman, cofundador de OpenAI, trabaja desde 2019 en un sistema para demostrar humanidad única mediante datos biométricos obtenidos de escaneos del iris de los usuarios.
Ese modelo, sin embargo, ha enfrentado fuertes cuestionamientos. La iniciativa fue criticada por sus prácticas de recopilación de datos, que incluyen ofrecer tokens WLD a potenciales usuarios a cambio de registrarse para el escaneo del iris. Varios reguladores en distintas partes del mundo prohibieron a World recolectar datos biométricos, mientras otros abrieron investigaciones sobre Tools for Humanity, la empresa detrás del proyecto.
Frente a ese precedente, Rogers sostuvo que la propuesta de Ledger es distinta. Explicó que Proof of Human estará basado en hardware y no dependerá de datos biométricos ni de reputación social. Según su descripción, el sistema vinculará la certificación humana con el elemento seguro dentro de un dispositivo Ledger.
El ejecutivo afirmó que cada certificación confirmará que una persona única y verificada está autorizando o controlando las acciones de un agente, sin exponer datos personales. También aclaró que la empresa no está tratando de demostrar la identidad de todo el mundo, una frase que sugiere un intento de equilibrar verificación con privacidad.
IA, trading automatizado y una superficie de ataque más amplia
El anuncio de Ledger coincide con un contexto más amplio en el que la inteligencia artificial está redefiniendo la seguridad en el sector cripto. Los traders dependen cada vez más de agentes para ejecutar operaciones en su nombre, una tendencia que promete velocidad y eficiencia, pero que también puede terminar en consecuencias no deseadas.
En mercados donde los precios cambian en segundos, la automatización resulta atractiva. Sin embargo, una mala instrucción, un error de interpretación o una manipulación externa puede convertirse rápidamente en pérdidas. Cuando ese proceso se combina con acceso a billeteras, contratos inteligentes y credenciales, el impacto potencial crece de forma considerable.
Al mismo tiempo, la IA también está reduciendo barreras para los atacantes. Herramientas más baratas, rápidas y accesibles pueden facilitar campañas de phishing, automatización maliciosa, ingeniería social o explotación de permisos sobre infraestructura cripto. Eso eleva la presión sobre empresas que custodian claves, diseñan interfaces y administran sistemas de autorización.
En ese sentido, la apuesta de Ledger refleja una tensión central del momento actual: cómo aprovechar la automatización sin normalizar que software autónomo tome decisiones sensibles sin supervisión suficiente. La compañía parece asumir que el desafío ya no es futuro, sino presente, y que la protección del usuario requiere nuevas capas de identidad, límites y validación humana.
Por ahora, el mercado deberá esperar para ver cómo se implementan estas funciones y qué nivel de adopción logran entre usuarios y desarrolladores. Pero el mensaje político y técnico de Ledger es claro: en la era de los agentes de IA, la seguridad cripto no dependerá solo de proteger claves, sino también de demostrar quién, o qué, está realmente actuando detrás de cada instrucción.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bancos y Pagos
Anthropic confirmó que informó a Trump sobre Mythos, su modelo de IA más riesgoso
Estados Unidos
Scott Bessent apoya recortes de tasas, pero avala que la FED espere por la guerra con Irán
Estados Unidos
CEOs desafían pronóstico de desempleo masivo por IA y apuestan por la productividad
Empresas