Un nuevo marco conceptual propone dar a los sistemas de inteligencia artificial una identidad verificable y persistente, usando huellas basadas en pesos del modelo, hashes criptográficos, blockchain, pruebas de conocimiento cero y monitoreo de cambios tras el despliegue.
***
- El esquema plantea identificar cada versión estable de un modelo de IA a partir de su configuración de pesos.
- La arquitectura combina hash criptográfico, registro en blockchain, pruebas ZKP y monitoreo de deriva con LZJD.
- Sus autores sostienen que una identidad verificable facilitaría auditorías, cumplimiento regulatorio y gobernanza digital sostenible.
La expansión de la inteligencia artificial en empresas, plataformas y servicios críticos ha abierto una pregunta que hasta ahora sigue poco resuelta: cómo comprobar que un sistema de IA es realmente el mismo que fue evaluado, aprobado o registrado antes de su despliegue. Un nuevo trabajo académico propone responder a ese vacío con una arquitectura de identificación persistente para modelos de IA.
El estudio, titulado AI Identification: An Integrated Framework for Sustainable Governance in Digital Enterprises, fue elaborado por Kevin Gao, de California State University Sacramento; Jingdao Chen, de Mississippi State University; y Shahram Rahimi, de University of Alabama. La propuesta combina mecanismos técnicos y de gobernanza para hacer posible la trazabilidad del ciclo de vida de los sistemas de IA.
En esencia, los autores plantean que la identidad de una IA debe estar vinculada a su configuración interna de pesos, es decir, a los parámetros aprendidos que determinan cómo procesa información y produce respuestas. Esa configuración serviría como una especie de huella digital del modelo, sobre la cual se construye luego un identificador criptográfico verificable.
La idea apunta a un problema creciente en la regulación tecnológica. A medida que los modelos se vuelven más autónomos y se integran en procesos empresariales o infraestructura sensible, también aumenta la dificultad para verificar su procedencia, su versión y si han sido modificados después de haber sido aprobados por una organización o por un regulador.
Los autores sostienen que sin identificadores estandarizados, los usuarios quedan en desventaja informativa, los reguladores enfrentan cuellos de botella para hacer cumplir normas y las empresas carecen de medios creíbles para demostrar cumplimiento. El marco propuesto busca cubrir justamente ese hueco, sin obligar a revelar secretos comerciales o detalles internos del modelo.
Cómo funcionaría la identidad de una IA
La arquitectura propuesta integra cinco componentes. El primero es el uso de la configuración de pesos del modelo como huella estructural. El segundo es el hash criptográfico de esa huella para producir un identificador primario verificable por máquinas. El tercero es el registro de ese identificador en una infraestructura resistente a manipulaciones, como blockchain.
El cuarto componente es el uso de pruebas de conocimiento cero, o ZKP por sus siglas en inglés, para demostrar en puntos de control que una IA desplegada corresponde al compromiso criptográfico registrado, sin exponer sus pesos, arquitectura ni datos sensibles. El quinto es un mecanismo de detección de cambios estructurales después del despliegue.
El diseño plantea una estructura de doble capa. Por un lado, un hash primario, calculado con SHA-256 sobre la serialización determinística de los pesos del modelo. Por otro, un identificador secundario legible por humanos, pensado para registros públicos, auditorías, documentos de certificación o encabezados de API.
Ese identificador secundario podría incluir código de país, identificador del desarrollador, familia del modelo, versión, fecha de registro, una porción del hash primario y un checksum para detectar errores de transcripción. Como ejemplo ilustrativo, el trabajo menciona un formato como “US-0000000A-GPT4O-20250613-3F7X-K9”.
Según el documento, la identidad pública de la IA no sería el hash directo de los pesos, sino un segundo hash calculado a partir del compromiso original y un prefijo del emisor, como un código de empresa o del registro. Eso busca reducir aún más la probabilidad de colisiones y separar espacios de identidad entre organizaciones.
Blockchain como registro y ZKP como capa de verificación
En el marco propuesto, blockchain no aparece como sustituto de la autoridad regulatoria. Su función sería actuar como un registro inmutable y verificable de entradas históricas, preservando el estado de las inscripciones de IA a lo largo del tiempo. Las decisiones seguirían en manos de autoridades, reguladores u organismos de certificación.
Los autores aclaran que no es indispensable una cadena pública y sin permisos. También podrían usarse redes permissionadas, registros consorciados u otras infraestructuras tipo append-only, siempre que ofrezcan garantías equivalentes de auditabilidad y resistencia a alteraciones silenciosas.
El flujo de registro contempla cinco pasos. Primero, el despliegue de un contrato o sistema de registro. Segundo, la preparación fuera de cadena de metadatos firmados por el desarrollador. Tercero, la verificación y emisión de una credencial por parte de la autoridad de registro. Cuarto, el almacenamiento inmutable de hashes, anclas ZKP, firmas y estado de prueba. Quinto, la inserción de la credencial final dentro de cada instancia del sistema de IA.
En ese esquema, el estado de la IA podría marcarse como “U” para indeciso, “P” para aprobado, “F” para fallo o “X” para retirado. Para dominios regulados, el documento plantea que la condición “P” sea necesaria antes del despliegue operativo.
La verificación en puntos de control sería selectiva, no continua. En esos momentos, un operador de plataforma o sistema de control consulta el registro, emite un desafío y el sistema de IA genera una prueba de conocimiento cero usando su estado interno como testigo privado. Si la prueba coincide con el ancla registrada, la identidad se valida sin revelar la configuración interna.
El trabajo también subraya una limitación práctica importante. Hoy no es viable recalcular dentro de un circuito ZKP el hash completo de modelos con miles de millones de parámetros. Por eso, la propuesta se limita a demostrar posesión del compromiso criptográfico registrado, no a ejecutar una validación integral del modelo dentro del circuito.
Detección de cambios y deriva después del despliegue
Uno de los puntos más delicados en la gobernanza de IA es qué hacer cuando un modelo cambia. El paper distingue entre modificaciones menores, aceptables para mantener continuidad de identidad, y cambios sustanciales que deberían obligar a una nueva inscripción o revisión.
Para detectar esa divergencia estructural, el marco propone usar Lempel-Ziv Jaccard Distance, o LZJD. Se trata de una métrica de similitud a nivel de archivo que compara flujos serializados de bytes y entrega una puntuación normalizada entre 0 y 1, donde valores más bajos indican mayor similitud estructural.
Los autores enfatizan que LZJD no debe interpretarse como una medida de equivalencia semántica, seguridad o rendimiento de tareas. Su papel sería más modesto y más operativo: servir como una señal reproducible para decidir si un modelo sigue dentro de los umbrales aceptados por gobernanza o si su alteración amerita re-registro, revisión adicional o restricción.
Esos umbrales no quedan fijados por el trabajo. La idea es que sean definidos por reguladores u organismos internos de gobernanza según el contexto, la categoría de riesgo y la clase de modelo. Si la similitud se mantiene dentro del rango aprobado, la continuidad de identidad se preserva. Si se supera, el sistema sería tratado como desviado.
El marco también admite otras técnicas estructurales complementarias. LZJD se presenta como una opción práctica y escalable, pero no como una tecnología obligatoria. El diseño general es deliberadamente agnóstico a una herramienta única, siempre que el método permita decisiones consistentes y auditables sobre continuidad de identidad.
Gobernanza digital sostenible, pero todavía sin validación empírica
Más allá del ángulo técnico, el argumento central del estudio es institucional. Los autores vinculan la identificación verificable de IA con la sostenibilidad de la gobernanza digital en empresas en transformación. En su definición, sostenibilidad no se limita al medio ambiente, sino que incluye resiliencia institucional, continuidad regulatoria y uso eficiente de recursos organizacionales y computacionales.
Desde esa perspectiva, una identidad persistente podría reducir retrabajos costosos, como certificaciones repetidas, auditorías duplicadas o ciclos innecesarios de reentrenamiento y fine-tuning. El documento incluso sugiere indicadores para evaluar ese beneficio, como reducción en retraining redundante, mejora de la eficiencia de auditoría y cobertura de trazabilidad a lo largo del ciclo de vida.
La propuesta también se integra con marcos de arquitectura empresarial como AIDAF y su proceso FSAO, en fases de comunicación, integración, adaptación y digitalización. Allí, los identificadores de IA actuarían como artefactos de referencia para gobernanza, gestión de riesgo, control tecnológico y seguimiento de cambios.
El estudio repasa además el contexto regulatorio internacional. Menciona que la Unión Europea ya exige una base de datos para ciertos sistemas de alto riesgo, mientras China estableció un régimen obligatorio de registro para algoritmos de recomendación. También cita guías no vinculantes en países como Corea del Sur, Singapur, Emiratos Árabes Unidos y Japón, así como una ley de California de octubre de 2025 sobre notificación visible en chatbots de compañía.
Sin embargo, los propios autores reconocen límites claros. El trabajo es conceptual y arquitectónico, no una validación experimental. No ofrece benchmarks reales sobre tiempos de generación de pruebas ZKP, sobrecarga de hashing en modelos de gran escala ni sensibilidad de LZJD ante cuantización, poda o fine-tuning. Esos puntos quedan planteados como tareas para investigaciones futuras.
Aun con esas salvedades, la propuesta dibuja una dirección relevante para el cruce entre IA, cumplimiento y blockchain. Si los sistemas de inteligencia artificial van a ser auditados como infraestructura crítica, contar con una identidad criptográficamente anclada y verificable podría pasar de ser una idea académica a una exigencia práctica en mercados altamente regulados.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Blockchain
AmBox conecta sensores a blockchain para reforzar la trazabilidad alimentaria
IA
Usuarios cuestionan desempeño de Claude Opus 4.6 y desatan debate sobre “AI shrinkflation”
Empresas
Meta pacta con Broadcom chips de IA por 1 GW y extiende alianza hasta 2029
Empresas