Por Canuto  

Clarifai eliminó 3 millones de fotos que, según una investigación federal, recibió de OkCupid en 2014 para entrenar sistemas de reconocimiento facial. El caso reabre el debate sobre privacidad, consentimiento y el uso de datos personales en el desarrollo de inteligencia artificial.
***

  • Clarifai aseguró que borró 3 millones de fotos obtenidas de OkCupid y también los modelos entrenados con esos datos.
  • La FTC sostuvo que OkCupid compartió imágenes, datos demográficos y de ubicación de usuarios pese a que sus propias políticas debían impedirlo.
  • Match Group y OkCupid llegaron a un acuerdo con la agencia, sin admitir las acusaciones presentadas en la demanda.

 


Clarifai eliminó 3 millones de fotos que, según dijo la empresa, fueron obtenidas de OkCupid para entrenar sistemas de reconocimiento facial. También borró cualquier modelo desarrollado con ese material, en un giro que vuelve a poner bajo escrutinio la forma en que compañías tecnológicas y plataformas digitales han manejado datos personales durante la última década.

El caso se remonta a 2014, pero sus implicaciones son plenamente actuales. En momentos en que la inteligencia artificial depende de enormes volúmenes de datos para mejorar precisión y rendimiento, la discusión ya no gira solo en torno a capacidad tecnológica. También abarca consentimiento, límites regulatorios y cumplimiento de políticas de privacidad.

De acuerdo con un reporte citado por Reuters, la Comisión Federal de Comercio de Estados Unidos, conocida como FTC, investigó la relación entre Clarifai y OkCupid tras descubrir que la aplicación de citas habría compartido fotografías subidas por usuarios, junto con información demográfica y de ubicación, para alimentar sistemas de IA.

Según la investigación de la FTC, Clarifai solicitó a OkCupid que compartiera estos datos en 2014. El detalle resultó especialmente delicado porque ejecutivos de OkCupid habían invertido en la empresa de inteligencia artificial, un vínculo que añade una dimensión corporativa al intercambio de información.

La agencia sostuvo que, conforme a las propias políticas de privacidad de OkCupid, ese comportamiento debía haber estado prohibido. Sin embargo, los documentos revisados por la investigación apuntan a que la transferencia de datos sí ocurrió y que fue vista como una oportunidad valiosa para desarrollar herramientas de análisis facial.

Entre los correos citados en documentos judiciales revisados por Reuters figura un mensaje del fundador y CEO de Clarifai, Matthew Zeiler, dirigido al cofundador de OkCupid, Maxwell Krohn. En ese correo, Zeiler escribió: “Estamos recopilando datos ahora y acabamos de darnos cuenta de que OKCupid debe tener una ENORME cantidad de datos increíbles para esto”.

Cómo surgió el caso y qué alegó la FTC

Aunque el intercambio de datos habría ocurrido hace 12 años, la FTC no abrió una investigación hasta 2019. El detonante fue un artículo de The New York Times sobre Clarifai que mencionó que la empresa había utilizado imágenes de OkCupid para construir una herramienta de IA capaz de estimar la edad, el sexo y la raza de una persona a partir de su rostro.

Ese punto resulta especialmente sensible en el contexto actual de la inteligencia artificial. Los modelos de reconocimiento facial y clasificación biométrica han sido cuestionados durante años por sus sesgos, errores y por el posible uso de datos obtenidos sin consentimiento claro, sobre todo cuando incluyen atributos como raza o género.

La FTC alegó además que, desde 2014, Match Group y OkCupid ocultaron deliberadamente este comportamiento e intentaron obstaculizar la investigación. Esa acusación elevó el tono del caso, porque no se trató solo de una posible infracción a las políticas declaradas a usuarios, sino también de una supuesta resistencia frente al escrutinio regulatorio.

El mes pasado, la FTC y OkCupid, propiedad de Match Group, llegaron a un acuerdo en la demanda. Ni OkCupid ni Match Group admitieron las acusaciones de que engañaron a los usuarios al violar sus propias políticas de privacidad, pero el borrado confirmado por Clarifai refuerza la conclusión de que la empresa sí tuvo acceso a esas fotografías.

En términos regulatorios, el acuerdo tiene un alcance importante. La FTC indicó que, aunque no puede imponer multas por este tipo de infracción cuando se trata de una primera ofensa, sí puede establecer restricciones permanentes sobre la conducta futura de las empresas implicadas.

El alcance del borrado y sus implicaciones para la IA

Clarifai no solo eliminó las 3 millones de fotos. También aseguró que borró cualquier modelo entrenado con esos datos. Ese detalle es clave, porque en el ecosistema de IA no basta con retirar el conjunto original si el conocimiento derivado sigue integrado en productos, algoritmos o servicios desplegados comercialmente.

Desde una perspectiva técnica, este tipo de eliminación plantea preguntas que van más allá del caso particular. Cuando una compañía retira datos y modelos asociados, también queda sobre la mesa el debate sobre trazabilidad, auditoría y la posibilidad real de deshacer el aprendizaje ya incorporado por sistemas complejos.

Para lectores menos familiarizados con el tema, el entrenamiento de modelos de reconocimiento facial exige enormes bases de imágenes etiquetadas. Estas permiten que el software identifique patrones faciales y realice tareas como clasificación o estimación de atributos. Por eso, el origen de esos datos es tan importante como la capacidad del modelo final.

La controversia en torno a Clarifai y OkCupid ilustra una tensión central de la economía digital. Durante años, muchas empresas tecnológicas trataron grandes volúmenes de información personal como un activo estratégico. Sin embargo, el avance regulatorio ha empezado a exigir que la obtención y el uso de esos datos se ajusten a promesas explícitas hechas a usuarios.

Este caso también sirve como recordatorio para el sector de inteligencia artificial. El entrenamiento de sistemas avanzados no ocurre en un vacío legal ni ético. A medida que más productos de IA entran en áreas sensibles, desde biometría hasta decisiones automatizadas, aumenta la presión para demostrar que los insumos fueron obtenidos de forma legítima.

Lo que cambia para OkCupid, Match Group y el sector

La FTC señaló que OkCupid y Match Group tienen prohibido permanentemente tergiversar, o ayudar a otros a tergiversar, la naturaleza de su recopilación y compartición de datos. En la práctica, eso significa que ya no pueden incurrir en conductas de este tipo sin exponerse a consecuencias regulatorias más severas.

El acuerdo no equivale a una admisión de culpa, pero sí deja un precedente incómodo para ambas compañías. La situación vuelve a poner el foco sobre cómo las plataformas que manejan información íntima, como aplicaciones de citas, deben responder cuando terceros buscan aprovechar esos datos para desarrollar nuevas tecnologías.

También hay una dimensión reputacional difícil de ignorar. En servicios donde los usuarios comparten fotos, ubicación y datos personales con expectativas claras de privacidad, cualquier revelación sobre usos externos no autorizados puede erosionar la confianza y afectar la relación entre plataformas y audiencias.

Ni OkCupid ni Clarifai respondieron de inmediato a las solicitudes de comentarios, según informó TechCrunch. Esa ausencia de respuesta deja sin aclarar aspectos relevantes, como el uso concreto que tuvieron los modelos desarrollados con esas imágenes o las medidas internas adoptadas para evitar episodios similares.

Más allá de esta disputa puntual, el caso puede influir en otras investigaciones sobre entrenamiento de IA con datos de terceros. En un entorno donde la demanda por datasets sigue creciendo, las autoridades parecen enviar una señal clara: la innovación no exime a las empresas de cumplir sus propias políticas ni de respetar el consentimiento de los usuarios.

Para la industria tecnológica, esa advertencia llega en un momento decisivo. El desarrollo de inteligencia artificial avanza con rapidez, pero también lo hace la exigencia pública de transparencia. Cuando fotos personales terminan en sistemas biométricos sin autorización clara, el problema ya no es solo técnico. Es legal, ético y comercial.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín