Por Canuto  

Reddit anunció nuevas exigencias de verificación humana para cuentas con comportamiento sospechoso, en un intento por contener bots, spam y manipulación sin imponer controles generalizados ni renunciar al anonimato que caracteriza a la plataforma.
***

  • Reddit comenzará a exigir pruebas de humanidad solo a cuentas que muestren señales sospechosas de automatización.
  • La empresa planea apoyarse en passkeys, biometría de terceros, World ID y, en ciertos países, identificaciones gubernamentales.
  • La red social asegura que busca distinguir humanos de bots preservando la privacidad y el anonimato de los usuarios.

 

Reddit anunció una nueva etapa en su estrategia contra los bots. La plataforma comenzará a exigir una verificación humana a determinadas cuentas cuando detecte señales que sugieran que podrían estar automatizadas, una medida que llega en medio del aumento de contenidos sintéticos, spam y actividad coordinada impulsada por inteligencia artificial.

La decisión no implica una verificación obligatoria para todos los usuarios. Según explicó la empresa, el requisito solo se activará cuando existan indicios derivados de la actividad de una cuenta o de otros factores técnicos que apunten a un comportamiento no humano. Si la cuenta no supera la prueba, Reddit advirtió que podrá restringirla, indica TechCrunch.

La medida aparece poco después de que Digg, uno de los aspirantes a competir con Reddit, cerrara sus puertas tras no poder controlar la invasión de bots en su sitio. En ese contexto, Reddit busca mostrar que está intentando responder al mismo problema antes de que la situación erosione la confianza en su ecosistema.

Junto con esta política, la empresa también comenzará a etiquetar las cuentas automatizadas que sí prestan un servicio a los usuarios. El enfoque recuerda al sistema de identificación de “bots buenos” aplicado en X, y busca diferenciar entre automatización legítima y actividad sospechosa o abusiva.

Cómo detectará Reddit a las cuentas sospechosas

Para identificar posibles bots, Reddit dijo que está utilizando herramientas especializadas capaces de analizar señales a nivel de cuenta y otros indicadores. Entre ellos figura, por ejemplo, la velocidad con la que una cuenta intenta escribir o publicar contenido, un patrón que puede ayudar a distinguir entre comportamiento humano y automatizado.

La empresa precisó, sin embargo, que usar inteligencia artificial para redactar publicaciones o comentarios no viola por sí mismo sus políticas. Ese matiz es importante, porque la plataforma no está persiguiendo toda forma de asistencia algorítmica, sino conductas que sugieran automatización encubierta o interacción no auténtica dentro de la comunidad.

Al mismo tiempo, Reddit recordó que los moderadores de cada comunidad conservan margen para establecer sus propias reglas sobre el uso de contenido generado con IA. Esto significa que el criterio general de la empresa puede coexistir con normas más estrictas en subreddits concretos, dependiendo del tipo de debate o del nivel de tolerancia a este tipo de herramientas.

La compañía ya había adelantado el año pasado que planeaba exigir verificación humana como respuesta al crecimiento de los bots y a la necesidad de cumplir con requisitos regulatorios en evolución. Ahora, la iniciativa entra en una fase más definida, con herramientas y criterios más concretos para su aplicación.

Passkeys, biometría y documentos en algunos mercados

Para comprobar que hay una persona detrás de una cuenta, Reddit aprovechará herramientas de terceros. Entre ellas mencionó passkeys de Apple, Google y YubiKey, además de servicios biométricos también provistos por terceros, como Face ID o incluso World ID, el sistema vinculado a Sam Altman.

La empresa agregó que, en ciertos países, también podría recurrirse a identificaciones gubernamentales. Este escenario, señaló, puede ser necesario en jurisdicciones como Reino Unido y Australia, así como en algunos estados de Estados Unidos, debido a regulaciones locales sobre verificación de edad.

Reddit subrayó que ese último método no es su opción preferida. El punto central de su mensaje es que, si necesita verificar que una cuenta es humana, intentará hacerlo de una manera que priorice la privacidad y reduzca al mínimo la exposición de la identidad personal del usuario.

Steve Huffman, cofundador y CEO de Reddit, sostuvo en el anuncio de la empresa que el objetivo es confirmar que existe una persona detrás de la cuenta, no determinar quién es esa persona. También afirmó que la meta consiste en aumentar la transparencia sobre qué tipo de actor participa en Reddit, preservando al mismo tiempo el anonimato que hace singular a la plataforma.

Privacidad, anonimato y presión regulatoria

El equilibrio entre autenticidad y privacidad se ha convertido en uno de los desafíos más complejos para las plataformas sociales. En el caso de Reddit, la tensión es aún mayor porque gran parte de su valor histórico se ha apoyado precisamente en la posibilidad de participar de manera seudónima, sin la presión de un perfil personal plenamente identificado.

Por eso, Huffman defendió públicamente una visión de largo plazo en la que las soluciones de verificación sean descentralizadas, individualizadas y privadas, e idealmente no requieran una identificación formal. La declaración sugiere que Reddit ve las herramientas actuales como una respuesta práctica a un problema urgente, pero no como la versión definitiva del modelo.

La discusión también está influida por los cambios normativos. La necesidad de probar edad o humanidad en determinados mercados ha empezado a afectar el diseño de servicios digitales, y las plataformas enfrentan el reto de cumplir con esas reglas sin transformar la experiencia en un sistema de vigilancia permanente.

En esa línea, Reddit intenta tomar distancia de una verificación total del sitio. Su mensaje busca dejar claro que no se está moviendo hacia un esquema universal de identificación, sino hacia un filtro de riesgo dirigido a cuentas cuyo comportamiento despierte sospechas técnicas o de uso.

El trasfondo: bots, astroturfing y datos para entrenar IA

La nueva política responde a un problema de escala más amplia. Los bots se usan con frecuencia para influir en política, difundir desinformación, inflar popularidad artificialmente, promocionar productos de forma encubierta y generar clics publicitarios falsos, entre otras prácticas que distorsionan la conversación y contaminan las métricas de internet.

En el caso de Reddit, el riesgo es especialmente sensible porque la plataforma se ha convertido en un destino popular para cuentas automatizadas que buscan manipular narrativas, hacer astroturfing para beneficiar a empresas o productos, volver a publicar enlaces, inundar espacios con spam, dirigir tráfico y realizar tareas de investigación.

Además, Reddit ocupa una posición particular dentro del auge de la inteligencia artificial. Su contenido se utiliza para entrenar modelos gracias a acuerdos comerciales con proveedores de IA, lo que ha alimentado la sospecha de que algunos bots estarían publicando preguntas o interacciones con el fin de generar nuevos datos de entrenamiento, sobre todo en áreas donde los modelos aún presentan vacíos de información.

Ese trasfondo conecta con la llamada teoría del internet muerto, una conjetura según la cual los bots ya superan a los humanos en línea y buena parte del contenido, las interacciones y la actividad web están automatizados o generados por IA. Alexis Ohanian, el otro cofundador de Reddit, ya se había referido antes a este debate, que en la era de los agentes de IA empieza a sonar menos especulativo.

Moderación, eliminaciones y nuevas etiquetas

Reddit aseguró que, además de la verificación humana selectiva, continuará eliminando bots y spam. La empresa afirmó que actualmente promedia 100.000 eliminaciones de cuentas por día, una cifra que ilustra la magnitud del problema y el costo operativo de contenerlo en una plataforma de conversación abierta.

La compañía también dijo que seguirá apoyándose en los reportes de usuarios sobre bots sospechosos. A eso sumará herramientas mejoradas que, según adelantó, llegarán más adelante para fortalecer la capacidad de respuesta tanto de la empresa como de las comunidades que dependen de la moderación cotidiana.

En paralelo, los desarrolladores que operan bots legítimos podrán acogerse a una nueva etiqueta “APP”. Reddit indicó que quienes administren estos llamados bots buenos pueden consultar más detalles en la comunidad r/redditdev, donde la empresa publicará orientación sobre cómo identificarlos correctamente.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín