Por Canuto  

Los agentes de IA que operan con carteras cripto pasan de experimento a despliegue temprano, y con ello crece una pregunta incómoda: si un software puede pagar, comerciar y contratar a otros agentes sin supervisión directa, ¿quién asume la responsabilidad cuando algo sale mal?
***

  • Inversores y desarrolladores advierten que las “wallets de agentes” avanzan más rápido que los marcos legales de responsabilidad.
  • La UETA en EE. UU. reconoce “agentes electrónicos”, pero la autonomía moderna de la IA complica la atribución de decisiones.
  • El cumplimiento KYC/AML y la trazabilidad por roles, en línea con principios de la OCDE, emergen como piezas clave para escalar esta tendencia.

Los agentes de inteligencia artificial equipados con carteras de criptomonedas están dejando de ser una rareza técnica para convertirse en una implementación temprana con implicaciones reales en mercados y protocolos. Inversores del sector están advirtiendo que esta evolución llega más rápido que los marcos de responsabilidad y atribución, lo que abre un frente de riesgo legal y de cumplimiento antes de que haya reglas claras en reguladores y tribunales.

La preocupación central no gira alrededor de si la tecnología funciona. El debate apunta a qué ocurre cuando estas carteras se vuelven comunes y empiezan a mover capital de forma rutinaria en redes abiertas. Ahí, las preguntas sobre control, seguridad y rendición de cuentas dejan de ser teóricas y se convierten en un problema operativo para empresas, usuarios e instituciones.

En un panel del 24 de febrero durante NEARCON 2026, Avichal Garg, socio de Electric Capital, señaló que los desarrolladores están equipando cada vez más agentes autónomos con carteras cripto. Según su planteamiento, esto puede permitir que programas informáticos posean activos, paguen servicios, comercien tokens e incluso contraten a otros agentes de IA.

NEARCON 2026 y la pregunta que incomoda: “¿quién tiene las llaves?”

La sesión en NEARCON 2026 se tituló “El Cheque del Futuro: ¿Quién tiene las llaves?”. El foco del intercambio fue directo: quién controla el capital cuando los sistemas actúan con autonomía, y qué condiciones mínimas se necesitan para operar con seguridad, cumplimiento y responsabilidad a gran escala.

Garg resumió el dilema con una frase que apunta al corazón del problema: “AI en sí misma no puede ser castigada”. Si un agente con una cartera independiente provoca pérdidas en transacciones, préstamos o trading, todavía no existe una respuesta clara sobre quién debe asumir la responsabilidad. En la práctica, esa ambigüedad complica la gestión de riesgos para cualquiera que despliegue, financie o se beneficie de esos agentes.

La industria cripto ya opera con un principio incómodo para el mundo tradicional: una cartera puede existir sin identidad pública clara. Cuando esa cartera está controlada por un agente de IA, los ganchos habituales para asignar responsabilidad se vuelven más resbaladizos. La pregunta legal básica aparece de inmediato: ¿de quién es la acción cuando un agente firma una transacción que su operador no revisó de forma específica?

En el mundo financiero convencional, “el cliente” suele ser una persona o una entidad registrada. Gran parte de los programas de cumplimiento se construyen sobre esa premisa, con procesos diseñados para identificar, monitorear y, si hace falta, sancionar a un actor. En cambio, en blockchain una wallet puede actuar como punto de control y ejecución sin revelar quién está detrás, lo que tensiona los modelos de supervisión existentes.

Cuando el dinero vuelve “real” la agencia autónoma

La cartera es el elemento que convierte la autonomía en acción. Un modelo que puede decidir y pagar puede ejecutar tareas de forma continua y a velocidad de máquina dentro de redes abiertas. Ese es el atractivo para eficiencia operativa, pero también el riesgo, porque la ejecución ocurre sin el mismo tipo de fricción que existe en circuitos financieros regulados.

En este contexto, los agentes pueden interactuar con protocolos, ejecutar operaciones, y encadenar decisiones sin necesidad de una revisión humana en el momento. En escenarios benignos, eso promete automatización útil. En escenarios adversos, amplifica el daño potencial, porque una mala decisión puede repetirse o escalar antes de que alguien intervenga.

El punto crítico es que el sistema, tarde o temprano, exigirá atribución. Si hay pérdidas, fraude, o incumplimientos, el ecosistema buscará identificar un principal. El problema es que, con agentes, hay múltiples candidatos con distintos grados de control: el desarrollador, el implementador, el operador, o la empresa que se beneficia de la actividad del agente.

Esa respuesta, advirtieron en el debate, puede variar caso por caso. Y si varía, el riesgo se vuelve difícil de valorar por adelantado. Para el capital de riesgo, para equipos legales y para empresas que construyen productos, la incertidumbre no solo es jurídica; también impacta decisiones de lanzamiento, alianzas y exposición a reguladores.

“Agentes electrónicos” en la ley: encaje parcial para una IA más autónoma

La automatización no es nueva en derecho. La Ley Uniforme de Transacciones Electrónicas de Estados Unidos (UETA) define un “agente electrónico” como un programa de computadora o medio automatizado utilizado de manera independiente para iniciar una acción o responder a registros electrónicos, sin revisión o acción por parte de un individuo en el momento.

Ese marco ayuda a establecer que los sistemas automatizados pueden formar acuerdos válidos. Sin embargo, no resuelve los problemas nativos de cripto actuales, donde la ejecución ocurre en redes globales y con instrumentos financieros programables. Además, la autonomía moderna de la IA introduce decisiones novedosas que no estaban contempladas en los flujos de trabajo para los que se diseñó esa definición.

Los “agentes” de la era UETA se pensaron para procesos más predecibles. En contraste, los agentes de IA modernos pueden operar en entornos adversos, generar acciones nuevas y entrar en interacción con protocolos que no están construidos alrededor de límites jurisdiccionales. Cuando algo sale mal, aun así los tribunales suelen necesitar una persona o empresa a la cual responsabilizar.

Por eso, el debate vuelve una y otra vez a la responsabilidad. Si un agente causa daño, el sistema jurídico buscará un responsable en la cadena humana y corporativa. Pero como esa cadena no siempre está clara en implementaciones descentralizadas, se incrementa el riesgo de disputas, costos legales y estrategias de cumplimiento más rígidas.

Presión de cumplimiento: KYC, AML y la trazabilidad del “cliente”

Las carteras de agentes también abren preguntas prácticas para Conozca a su Cliente (KYC) y Anti Lavado de Dinero (AML). Cualquier empresa que toque rieles regulados, como pagos, rampas fiat o servicios custodiados, debe poder explicar quién es el cliente y quién controla fondos y decisiones. En el caso de wallets operadas por agentes, esas fronteras pueden difuminarse.

Una sola cartera de agente puede ser financiada por una empresa, implementada por un desarrollador, impulsada por un usuario e interactuar con múltiples servicios a la vez. Incluso si el controlador se conoce en privado, los equipos de cumplimiento necesitan trazabilidad y una asignación clara de responsabilidad para cumplir obligaciones. De lo contrario, el riesgo no se limita a pérdidas operativas, también incluye sanciones o restricciones de acceso a servicios.

En ese sentido, los principios de inteligencia artificial de la OCDE apuntan a un enfoque basado en roles para la responsabilidad. También enfatizan la trazabilidad para permitir análisis e investigación cuando surgen problemas. Ese enfoque, aplicado a wallets de agentes, sugiere que el ecosistema necesitará registros de auditoría y mecanismos de atribución que no dependan solo de suposiciones sobre “quién estaba detrás”.

La realidad es que, sin trazabilidad, resulta difícil sostener que un sistema cumple estándares razonables de control. Y con trazabilidad insuficiente, el costo de integrar agentes a productos financieros puede subir. Para muchas empresas, el dilema será equilibrar la promesa de automatización con requisitos de auditoría y políticas internas más estrictas.

Cripto e IA: integración acelerada, pero no “gratis”

El debate sobre responsabilidad ocurre dentro de una narrativa de mercado más amplia sobre IA y cripto. Haseeb Qureshi, socio gerente de Dragonfly, ha argumentado que el cripto no está siendo reemplazado por la IA y que el movimiento de capital entre sectores refleja un comportamiento de mercado normal. Esa lectura reduce la idea de una competencia existencial y sugiere que ambos campos pueden coexistir.

Sin embargo, Qureshi también expresó una postura cautelosa sobre el ritmo de integración de IA y cripto a gran escala. Cuanta más autonomía se le otorgue al software, más necesarias se vuelven las barreras de protección. En otras palabras, el crecimiento puede ser real, pero también exige disciplina en diseño y gobernanza.

En la práctica, la discusión no parece orientarse a convertir agentes de IA en personas legales en el corto plazo. El escenario más realista apunta a una “pila” de controles y capas de responsabilidad que haga viable el despliegue sin dejar un vacío total. Esa dirección intenta alinear incentivos: permitir innovación, pero sin eliminar la posibilidad de atribuir culpa o corregir fallas.

Entre las medidas mencionadas como camino probable están límites de gastos, ejecución basada en políticas, registros de auditoría y sistemas de atribución. El objetivo sería que mercados y reguladores puedan identificar una parte responsable cuando sea necesario. La tecnología, como se reconoció en el panel, avanza rápido; la ley suele llegar después, pero terminará respondiendo cuando suficiente dinero se mueva y suficiente gente se vea afectada.

En ese punto, “¿quién tiene las llaves?” deja de ser una metáfora. Se convierte en una pregunta que legisladores y autoridades no podrán ignorar, especialmente si los agentes empiezan a actuar de forma habitual en préstamos, trading y pagos. Para el ecosistema cripto, la promesa de automatización podría depender menos de la capacidad técnica y más de cómo se diseñen, documenten y supervisen esas llaves.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín