Anthropic comenzó a exigir verificación de identidad para acceder a ciertas funciones de Claude, una medida que enmarca como parte de sus controles de seguridad, cumplimiento legal y prevención de abusos, en un momento en que los modelos de IA muestran capacidades cada vez más delicadas en ciberseguridad.
***
- Anthropic solicita una identificación oficial física y, en algunos casos, una selfie en vivo para habilitar ciertas capacidades de Claude.
- La empresa asegura que no usa esos datos para entrenar sus modelos y que el proceso es operado por Persona.
- La decisión llega en medio de crecientes preocupaciones por el uso de IA en hacking, defensa digital y seguridad nacional.
Anthropic comenzó a implementar un proceso de verificación de identidad (ID) para algunos usos dentro de Claude, su asistente de inteligencia artificial (IA). La compañía presenta la medida como una capa adicional de seguridad destinada a prevenir abusos, hacer cumplir sus políticas de uso y atender obligaciones legales.
La decisión refleja un cambio más amplio en la industria de la IA. Lo que hace pocos años parecía una tecnología orientada a tareas cotidianas, como redactar textos o generar imágenes, hoy también se analiza desde la óptica de la ciberseguridad, el acceso a herramientas sensibles y el posible impacto sobre infraestructuras críticas.
De acuerdo con el centro de ayuda oficial de Claude, la verificación no se aplica a todos los usuarios en todo momento. Anthropic explicó que se está activando para ciertos casos de uso, al acceder a determinadas capacidades, o como parte de sus controles rutinarios de integridad de plataforma, seguridad y cumplimiento.
El proceso pide una identificación con foto emitida por el gobierno y vigente en formato físico. Entre los documentos aceptados figuran pasaporte, licencia de conducir, tarjeta de identificación estatal o provincial y documento nacional de identidad de la mayoría de los países, siempre que sean legibles, no estén dañados e incluyan fotografía.
Los informes también indican que la medida tiene por objeto limitar el acceso desde algunas jurisdicciones relacionadas con cuestiones de seguridad nacional de Estados Unidos, entre ellas China, Rusia y Corea del Norte.
Qué pide Anthropic y cómo funciona el proceso
Además del documento, el usuario debe contar con un teléfono o computadora con cámara. En algunos casos, el sistema solicita una selfie en vivo tomada con el móvil o con la cámara web. Según la empresa, el procedimiento normalmente tarda menos de cinco minutos.
Anthropic indicó que seleccionó a Persona Identities como socio para esta verificación. La firma afirma que eligió a ese proveedor por la solidez de su tecnología y por sus controles de privacidad y seguridad. Persona es la encargada de procesar la información, pero lo hace bajo las instrucciones de Anthropic.
La empresa también detalla qué no acepta. Quedan fuera fotocopias, capturas de pantalla, escaneos, fotos de una foto, identificaciones digitales o móviles, credenciales no gubernamentales como carnés estudiantiles o gafetes de trabajo, y documentos temporales en papel.
Si la verificación falla, el usuario puede intentarlo varias veces dentro del mismo flujo. Anthropic señala que muchas fallas se resuelven con mejor iluminación, una imagen más nítida o con otro documento válido. Si el problema persiste, la compañía remite a un formulario de soporte para revisión manual.
Privacidad, almacenamiento de datos y límites del uso
Uno de los puntos más sensibles del anuncio tiene que ver con el tratamiento de datos personales. Anthropic asegura que actúa como responsable del tratamiento de los datos de verificación, es decir, define cómo se usan y durante cuánto tiempo se conservan, mientras que Persona los procesa en su nombre.
La compañía afirma que la identificación y la selfie son recopiladas y almacenadas por Persona, no en los sistemas de Anthropic. Agrega que puede acceder a los registros de verificación a través de la plataforma de su proveedor cuando sea necesario, por ejemplo, para revisar apelaciones, pero sostiene que no copia ni almacena esas imágenes en sus propios sistemas.
Según su explicación, Persona tiene restricciones contractuales sobre el uso de esa información. Solo puede emplearla para prestar y respaldar el servicio de verificación y para mejorar su capacidad de prevención de fraude. Además, Anthropic sostiene que los datos se cifran tanto en tránsito como en reposo.
La empresa subraya tres límites concretos. Primero, dice que no utiliza los datos de identidad para entrenar sus modelos. Segundo, afirma que solo pide la cantidad mínima de información necesaria. Tercero, indica que no comparte esos datos con terceros para fines de marketing, publicidad ni otros usos ajenos a verificación y cumplimiento, salvo obligación legal válida.
Qué pasa si una cuenta es bloqueada
Anthropic advierte que una cuenta puede ser prohibida después de la verificación por distintos motivos. Entre ellos menciona infracciones repetidas de su Política de Uso, creación de cuenta desde una ubicación no admitida, violaciones de los Términos de Servicio o uso por menores de 18 años.
La empresa añade que, si una persona cree que su cuenta fue deshabilitada por error, puede presentar una apelación para que su equipo de salvaguardas investigue el caso. Ese punto es relevante porque conecta la verificación no solo con control de acceso, sino también con la gobernanza del uso de modelos avanzados.
Este tipo de medidas resulta cada vez más común a medida que las plataformas de IA intentan segmentar capacidades. En la práctica, no todas las funciones tienen el mismo nivel de riesgo, y varias empresas tecnológicas empiezan a diferenciar entre usos generales y accesos que pueden requerir más controles de identidad o revisión humana.
La lectura de fondo es clara: cuanto más potentes son ciertos sistemas, mayor es la presión para saber quién los utiliza, con qué propósito y bajo qué reglas. Ese equilibrio entre acceso, innovación y seguridad se está convirtiendo en uno de los ejes de la nueva etapa de la inteligencia artificial comercial.
El telón de fondo: la IA y el riesgo cibernético
La noticia tomó más relevancia por el contexto más amplio descrito por CryptoPolitan, que vinculó esta nueva exigencia con el endurecimiento de controles en el sector. Según ese reporte, Anthropic y OpenAI están adoptando medidas más serias frente a los riesgos asociados con modelos cada vez más capaces en tareas de ciberseguridad.
Ese informe señala que los atacantes ya están utilizando IA para intentar eludir sistemas defensivos. En ese marco, la exigencia de documento oficial y selfie en vivo no se presenta como un simple trámite administrativo, sino como una respuesta a la posibilidad de abuso de herramientas avanzadas por parte de usuarios maliciosos.
CryptoPolitan también reseñó que Anthropic aclaró que la verificación busca prevenir abusos, hacer cumplir sus políticas y cumplir obligaciones legales. Ese mismo resumen menciona que los usuarios que no superen la prueba o intenten usar el sistema desde ubicaciones no compatibles podrían ver bloqueadas sus cuentas, un punto que coincide con la explicación del centro de ayuda de Claude.
La discusión no es menor porque toca un área sensible para gobiernos, empresas y desarrolladores. Si un modelo de IA puede asistir de forma significativa en tareas ofensivas o defensivas, el acceso irrestricto deja de ser una cuestión puramente comercial y empieza a parecerse a un problema de gestión de riesgo tecnológico.
Un cambio de época para la IA comercial
Más allá del caso puntual de Anthropic, el anuncio sugiere una transición en la forma en que la industria administrará sus productos. Durante la primera gran ola de IA generativa, muchas plataformas apostaron por maximizar adopción. Ahora, junto con el crecimiento del mercado, también se fortalece la idea de acceso escalonado, trazabilidad y cumplimiento.
Eso puede generar fricción entre usuarios que valoran privacidad y facilidad de uso, especialmente si deben entregar documentos sensibles para desbloquear funciones. Sin embargo, para las empresas, el costo reputacional y legal de un mal uso puede ser incluso mayor que el de imponer barreras adicionales.
En este escenario, la verificación de identidad no debe leerse solo como una política aislada de Claude. También funciona como una señal de hacia dónde se mueve el sector: modelos más capaces, controles más estrictos y una relación cada vez más estrecha entre IA, seguridad y regulación.
Por ahora, Anthropic insiste en que el sistema está limitado a ciertos casos de uso y que los datos no se destinan al entrenamiento de modelos. Aun así, la medida ilustra con claridad cómo la carrera por desplegar IA avanzada ya no se libra únicamente en velocidad o rendimiento, sino también en confianza, cumplimiento y control del riesgo.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
YouTube amplía su detección de deepfakes con IA para proteger a celebridades
Empresas
OpenAI activa anuncios CPC en ChatGPT y acelera su pulso con Google
Empresas
Blue Energy recauda USD $380 millones para construir reactores nucleares en astilleros
Bancos y Pagos