Por Canuto  

Anthropic comenzó a aplicar verificaciones de identidad para acceder a ciertas capacidades de Claude, una medida que puede exigir documentos oficiales y una selfie en vivo. La decisión ha generado críticas entre usuarios que habían visto en la empresa una alternativa más respetuosa de la privacidad frente a otros actores del sector.

***

  • Anthropic confirmó que algunos usuarios de Claude podrían tener que presentar pasaporte, licencia o documento nacional de identidad, además de una selfie en vivo.
  • La empresa asegura que la medida se aplica en un número pequeño de casos vinculados con actividad potencialmente fraudulenta o abusiva.
  • El cambio reavivó preocupaciones sobre privacidad, custodia de datos por terceros y el giro más restrictivo de las plataformas de IA.

 


Anthropic introdujo nuevos requisitos de verificación de identidad para ciertos usuarios de Claude, su asistente de inteligencia artificial. La política, publicada en su centro de ayuda el 14 de abril, contempla la entrega de una identificación oficial con foto emitida por el gobierno y, en algunos casos, una selfie en vivo para acceder a determinadas capacidades dentro de la plataforma.

La medida llega en un momento sensible para la industria de IA. En los últimos meses, la privacidad, la moderación y el cumplimiento normativo se han convertido en puntos de tensión entre empresas que buscan ampliar sus servicios sin abrir la puerta a fraude, abuso o uso indebido. En ese contexto, la decisión de Anthropic llamó especialmente la atención porque parte de su reputación reciente se había apoyado en una imagen más cauta frente a la vigilancia.

Según reportó Decrypt, Anthropic señaló que está implementando la verificación de identidad para algunos casos de uso, y que ciertos usuarios podrían ver una solicitud de verificación al intentar acceder a capacidades específicas, como parte de comprobaciones rutinarias de integridad de la plataforma o de otras medidas de seguridad y cumplimiento.

La empresa sostuvo además que los datos de verificación se usarán únicamente para confirmar la identidad del usuario. Sin embargo, la reacción inicial en redes y foros fue mayormente negativa, en parte porque los críticos interpretan que no se trata de una obligación regulatoria general, sino de una decisión tomada de forma voluntaria por la compañía.

Qué exige Anthropic y cuándo podría activarse

De acuerdo con la documentación citada, Anthropic eligió a Persona Identities como socio para este proceso de verificación. Se trata de una infraestructura de verificación conocida en entornos financieros y procesos KYC, donde suele pedirse documentación oficial para confirmar la identidad de un cliente.

Los documentos aceptados incluyen pasaporte, licencia de conducir o documento nacional de identidad, siempre que sean físicos y no presenten daños. Las fotocopias, identificaciones móviles y credenciales estudiantiles no son válidas. Además, en ciertos casos, el sistema también puede exigir una selfie en vivo para cotejar el rostro del usuario con el documento presentado.

Anthropic no indicó que la política sea universal. Por el contrario, explicó que la verificación se activará al acceder a ciertas capacidades, durante controles rutinarios de integridad o como parte de medidas de seguridad y cumplimiento. Más tarde, un portavoz dijo a Decrypt que esto se aplica a un pequeño número de casos en los que observan actividad que sugiere comportamiento potencialmente fraudulento o abusivo, en contra de la política de uso del servicio.

Ese matiz es importante porque delimita el alcance actual de la medida. Aun así, la falta de precisión pública sobre qué funciones activan la revisión, qué patrones disparan la solicitud o si la práctica se expandirá en el tiempo ha alimentado la inquietud entre usuarios más sensibles al tema de la privacidad.

Por qué la reacción ha sido tan crítica

La controversia no se explica solo por la verificación en sí, sino por el perfil de parte de la comunidad que había migrado a Claude. Millones de usuarios se alejaron de OpenAI en febrero, después de que esa empresa firmara un acuerdo para desplegar IA en redes clasificadas del Pentágono, un contrato que Anthropic rechazó por preocupaciones relacionadas con la vigilancia masiva y las armas autónomas.

En ese momento, Anthropic dijo que los registros diarios habían marcado récords y que los usuarios gratuitos crecieron 60% desde enero. Esa expansión ayudó a consolidar la percepción de Claude como un refugio para quienes buscaban herramientas de IA con una postura más prudente frente al uso institucional sensible de esta tecnología.

Por eso, la nueva exigencia de documentos oficiales resulta especialmente incómoda para parte de su base de usuarios. Para muchos, el problema no es solo operacional. También es simbólico. El pedido de pasaporte o selfie en vivo se percibe como un movimiento que acerca a Anthropic a prácticas que sus propios usuarios querían evitar cuando cambiaron de plataforma.

Las críticas, además, apuntan a que no hay evidencia pública de que el cambio responda a una orden directa de un gobierno. En ese vacío, algunos interpretan la decisión como un giro interno de la compañía hacia controles de acceso más estrictos, algo que inevitablemente reabre el debate sobre cuánto anonimato pueden conservar los usuarios en servicios avanzados de IA.

Privacidad, terceros y el riesgo de custodia de datos

Anthropic trazó una línea cuidadosa sobre el manejo de la información. La empresa indicó que la identificación y la selfie se envían a los servidores de Persona, no a los sistemas propios de Anthropic. También explicó que actúa como controladora de datos, fijando los términos bajo los cuales se realiza la verificación.

Según la política descrita, Persona puede usar la información para verificar la identidad y mejorar la detección de fraude. Los datos estarían cifrados en tránsito y en reposo, quedarían excluidos del entrenamiento de modelos y no se compartirían con terceros con fines de marketing. Sobre el papel, eso limita usos secundarios no deseados de los documentos entregados por los usuarios.

Sin embargo, la existencia de un intermediario especializado no elimina el riesgo. La preocupación central de los críticos es que cualquier repositorio de documentos gubernamentales se convierte en un objetivo sensible. La historia reciente ofrece ejemplos de por qué esta inquietud no es menor, incluso cuando el proveedor tiene experiencia reconocida en verificación y cumplimiento.

El artículo recuerda una filtración ocurrida en octubre de 2025 en Discord, donde quedaron expuestas unas 70.000 identificaciones gubernamentales enviadas por usuarios para verificar su edad. Ese antecedente no involucra directamente a Anthropic, pero funciona como advertencia sobre los límites prácticos de las promesas de seguridad cuando hay terceros custodios de documentos personales.

Un patrón de controles más estrictos en Claude

La verificación de identidad no aparece en el vacío. En diciembre, Anthropic ya había anunciado clasificadores para detectar usuarios que se autoidentifican como menores de edad. Ese movimiento apuntaba a reforzar políticas de seguridad y uso responsable, pero también generó fricciones con usuarios que denunciaron errores en la aplicación de esos sistemas.

De acuerdo con el reporte, varios adultos vieron sus cuentas suspendidas después de ser señalados por esos mecanismos. Algunos afirmaron que historiales completos de proyectos fueron borrados mientras intentaban apelar decisiones que consideraban equivocadas. Ese tipo de episodios alimenta la percepción de que los controles automáticos pueden castigar a usuarios legítimos sin ofrecer remedios rápidos o transparentes.

También existen restricciones geográficas. Las cuentas registradas desde regiones en las que Anthropic no ofrece servicio formal están sujetas a prohibiciones. Ese detalle pesa especialmente sobre usuarios chinos que acceden a Claude mediante intermediarios, ya que una verificación con selfie en vivo cotejada contra un documento físico emitido por el gobierno dificulta eludir esos controles.

Visto en conjunto, el nuevo requisito de identidad encaja en una tendencia más amplia dentro de la compañía: reforzar filtros de acceso, moderación y cumplimiento. Para Anthropic, eso puede ser una respuesta lógica al crecimiento de la plataforma y al riesgo de abuso. Para sus críticos, en cambio, representa una erosión paulatina del modelo de acceso que hizo atractiva a la empresa frente a otros competidores.

Lo que está en juego para la industria de IA

El caso de Claude ilustra una tensión cada vez más visible en inteligencia artificial. Las empresas quieren ofrecer modelos más potentes y funciones más sensibles, pero mientras aumentan las capacidades, también crece la presión por controlar quién accede, desde dónde lo hace y con qué propósito. La identidad del usuario, antes secundaria en muchas herramientas digitales, empieza a convertirse en una condición de entrada.

Ese cambio tiene implicaciones más amplias. Por un lado, puede ayudar a frenar fraude, automatización abusiva o violaciones de políticas. Por otro, eleva el costo de privacidad para usuarios comunes, investigadores independientes, activistas y personas que prefieren no entregar documentos oficiales para usar servicios en línea, incluso si el proveedor promete no explotar comercialmente esa información.

En el caso de Anthropic, la discusión es aún más delicada por el contraste entre su narrativa previa y esta nueva práctica. La compañía insiste en que la verificación solo afecta a un grupo reducido de casos sospechosos, no a toda la base de usuarios. Pero una vez que la infraestructura existe, el mercado suele preguntarse si el alcance se mantendrá acotado o si terminará expandiéndose a más escenarios.

Por ahora, lo concreto es que Claude ya no opera solo bajo la promesa de una IA útil y segura. Para algunos usuarios, el acceso a ciertas funciones también podría depender de mostrar el rostro y un documento oficial. En una industria que vende futuro, esa exigencia devuelve al presente una vieja pregunta: cuánta identidad personal debe entregarse para interactuar con sistemas cada vez más poderosos.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín