Meta enfrenta una demanda en Estados Unidos por sus gafas inteligentes con IA, luego de reportes que afirman que contratistas en Kenia revisaron y etiquetaron videos sensibles compartidos con Meta AI. Los demandantes sostienen que la empresa mintió en promesas de privacidad, sin dejar claro que terceros podrían ver momentos íntimos.
***
- Una demanda colectiva propuesta acusa a Meta y a Luxottica Of America de publicidad falsa y violaciones de privacidad por el uso de revisores humanos.
- Medios suecos reportaron que contratistas en Nairobi vieron videos con “visitas al baño, sexo y otros momentos íntimos”; el desenfoque de rostros no siempre funcionaría.
- Meta sostiene que el contenido permanece en el dispositivo salvo que el usuario lo comparta con Meta AI, y que a veces usa contratistas para mejorar la experiencia.
La gigante tecnológica Meta enfrenta una nueva demanda en Estados Unidos por la manera en que promocionó sus gafas inteligentes con inteligencia artificial (IA), en medio de crecientes temores sobre privacidad y vigilancia en dispositivos portables.
La controversia se intensificó tras reportes que señalan que trabajadores de un subcontratista en Nairobi, Kenia, habrían revisado material capturado por usuarios, incluyendo escenas sensibles como desnudos, sexo y momentos en el baño.
La queja legal sostiene que Meta convirtió la privacidad en el eje de su campaña de marketing, con frases como “diseñadas para la privacidad, controladas por ti” y “construidas para tu privacidad”.
Sin embargo, los demandantes afirman que esas promesas no reflejaban adecuadamente el hecho de que, al compartir contenido con Meta AI, podían entrar en juego revisiones humanas realizadas por contratistas en el extranjero.
El caso se suma a un debate más amplio sobre el avance de los llamados dispositivos de “vigilancia de lujo”. Se trata de productos que integran cámaras, micrófonos y asistentes de IA para interpretar el entorno en tiempo real. Su adopción crece, pero también lo hacen las preguntas sobre quién accede a los datos, cómo se procesan y qué controles reales tiene el usuario.
Empleados en Kenia acceden a imágenes comprometedoras
La investigación de medios suecos citada por la prensa internacional describe a contratistas en Nairobi que trabajan como anotadores de IA. Su tarea consiste en etiquetar imágenes, texto o audio para que los sistemas de IA aprendan a interpretar datos. Según esos testimonios, entre el material revisado habría videos con “visitas al baño, sexo y otros momentos íntimos”.
De acuerdo con esas versiones, Meta aplicaría un difuminado automático de rostros en los datos de anotación. No obstante, trabajadores entrevistados afirmaron que ese desenfoque “no siempre funciona como se pretende”. En algunos casos, señalaron que aún podían verse rostros, y que incluso llegaron a aparecer tarjetas bancarias dentro de las grabaciones revisadas.
El trasfondo técnico importa porque estas gafas incluyen un asistente capaz de responder preguntas sobre lo que el usuario está viendo. Esa función puede implicar el envío de contenido a sistemas remotos para análisis. La línea crítica, según la controversia, está en si el consumidor entiende con claridad que parte de ese flujo de datos puede terminar en revisión humana, y en qué condiciones ocurre.
El tema también escaló al plano regulatorio. La Oficina del Comisionado de Información del Reino Unido cuestionó a Meta por las afirmaciones del informe sueco. El foco está en si las prácticas descritas, y la forma de informarlas, cumplen con expectativas y obligaciones sobre privacidad en el uso de IA aplicada a productos de consumo masivo.
La demanda contra Meta: publicidad, privacidad y expectativas
La demanda en Estados Unidos fue presentada por Gina Bartone, de Nueva Jersey, y Mateo Canu, de California, representados por Clarkson Law Firm. Los demandantes alegan que Meta violó leyes de privacidad y participó en publicidad falsa. Además, la acción legal también menciona como demandado al fabricante de gafas Luxottica of America Inc.
Según la denuncia, ningún consumidor razonable entendería que slogans como “diseñadas para la privacidad, controladas por ti” implicaran que “imágenes profundamente personales desde el interior de sus hogares” serían vistas y catalogadas por trabajadores humanos en el extranjero. La demanda sostiene que Meta “eligió hacer de la privacidad el eje central” de su marketing, mientras ocultaba hechos materiales que, de haberse conocido, habrían influido en la decisión de compra.
En su planteo, los consumidores “no comprendieron, ni podrían razonablemente entender”, que sus dormitorios, baños, familias y cuerpos podrían quedar expuestos a extraños. También alegan que los videos pueden contener información financiera, actividad sexual y otros contenidos privados. Con ese marco, la denuncia busca representar clases de consumidores a nivel nacional, y también clases específicas de California y Nueva Jersey.
Las reclamaciones incluyen demandas bajo leyes de consumidores de California y Nueva Jersey, así como acusaciones por fraude, tergiversación, incumplimiento de contrato, incumplimiento de garantía y enriquecimiento injusto. Los consumidores solicitan compensaciones y una orden judicial que obligue a Meta a cambiar sus prácticas comerciales. También piden una campaña publicitaria afirmativa para disipar las supuestas falsedades.
La respuesta de Meta y su descripción del flujo de datos
La compañía de Mark Zuckerberg no comentó directamente sobre el litigio en el momento de la publicación de los reportes. Sin embargo, un portavoz ofreció una declaración sobre el funcionamiento general del producto y el tratamiento del contenido, con énfasis en el rol de la decisión del usuario al compartir material con el asistente.
Según Meta, las gafas Ray-Ban Meta permiten usar IA “sin manos” para responder preguntas sobre el mundo alrededor. La empresa afirma que, a menos que los usuarios opten por compartir el contenido capturado con Meta u otros, ese contenido permanece en el dispositivo del usuario. Bajo esa lógica, el envío de datos a revisión sería consecuencia de una acción deliberada del usuario al compartir con Meta AI.
La compañía también indicó que, cuando las personas comparten contenido con Meta AI, a veces utiliza contratistas para revisar esos datos con el propósito de mejorar la experiencia, “como lo hacen muchas otras empresas”. Además, dijo tomar medidas para filtrar los datos y “ayudar a prevenir que se revise la información identificable”. Este punto resulta central, porque los testimonios reportados cuestionan la consistencia de esas protecciones.
En paralelo, la discusión se conecta con cambios previos en políticas del producto que han generado críticas. Se informó que Meta mantuvo habilitado el uso de cámara de Meta AI en las gafas “a menos que desactives ‘Hey Meta’”. También se reportó que la empresa dejó de permitir que los usuarios opten por no almacenar sus grabaciones de voz en la nube, lo que elevó la sensibilidad del debate sobre control y consentimiento.
La era de la IA y la “vigilancia de lujo”
El caso de las gafas de Meta se volvió un símbolo de una tensión más amplia: la IA de consumo necesita datos para mejorar, pero esos datos suelen incluir momentos cotidianos con alto valor privado. Cuando un dispositivo se integra al cuerpo, como unas gafas, la captura de contexto se vuelve más intensa que en un teléfono. Por eso, la transparencia sobre revisiones humanas, almacenamiento y usos secundarios se vuelve un factor clave.
Las cifras ilustran la escala. EssilorLuxottica, socio de Meta en el desarrollo de las gafas con cámara, vendió más de 7 millones de gafas impulsadas por IA en 2025. Esa cifra, citada en la cobertura del caso, sugiere que el impacto potencial de cualquier práctica de revisión o etiquetado se multiplica con rapidez. También complica la idea de que se trata de incidentes aislados.
En el terreno tecnológico, la anotación humana sigue siendo común para entrenar y evaluar modelos. Pero la aceptación social cambia cuando el material proviene de situaciones íntimas y cuando el marketing pone el listón muy alto con promesas de privacidad. En ese punto, el conflicto ya no es solo técnico. También es de expectativas, confianza y gobernanza de datos.
Finalmente, el tema se cruza con preocupaciones futuras sobre capacidades más intrusivas. Defensores de privacidad han advertido sobre los presuntos objetivos de integrar reconocimiento facial en este tipo de gafas. El Electronic Privacy Information Center lo ha llamado un “grave riesgo para la privacidad, la seguridad y las libertades civiles”. En ese contexto, la demanda y las investigaciones regulatorias podrían marcar precedentes sobre cómo se comunican y limitan estas funciones.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
CleanSpark vendió 97% de su Bitcoin minado en febrero para financiar su giro hacia IA
Meta permitirá chatbots de IA rivales en WhatsApp en Europa —pero no será gratis
Revolut se suma a las firmas cripto en busca de licencia bancaria en EEUU