Por Canuto  

El renovado impulso de Meta AI con el modelo Muse Spark está atrayendo más descargas, pero también revive una preocupación incómoda: la fuerte conexión entre las apps de Meta puede exponer a los usuarios ante sus contactos y amplificar riesgos de privacidad.
***

  • Usuarios de Instagram pueden recibir notificaciones indicando qué amigos usan la app Meta AI.
  • La app volvió a escalar en la App Store de EE. UU. tras la renovación del chatbot con Muse Spark.
  • La polémica también reaviva críticas por el uso de datos y por chats privados compartidos por error.

 


Meta relanzó su apuesta por la inteligencia artificial esta semana con el modelo Muse Spark, presentado el miércoles como parte de una renovación más amplia de sus esfuerzos en IA. El movimiento tiene un peso estratégico evidente para la empresa, que busca evitar otro ciclo de inversiones multimillonarias en una apuesta que no logre consolidarse, como ocurrió con el metaverso.

Pero el renovado interés por Meta AI también volvió a poner sobre la mesa un problema mucho más cotidiano para los usuarios: la privacidad. Un reporte publicado por TechCrunch advierte que la integración entre las distintas plataformas de Meta puede llevar a situaciones incómodas, como notificaciones en Instagram que informan a otras personas que un usuario utiliza la app Meta AI.

Ese detalle, que puede parecer menor en un primer vistazo, apunta a una cuestión de fondo más seria. Las aplicaciones de Meta operan como un ecosistema altamente interconectado, y para muchos usuarios no siempre es claro qué información se comparte entre servicios, con qué fines ni quién puede verla.

En el caso descrito, la autora del reporte explicó que descargó la app Meta AI cuando fue lanzada en abril del año pasado, como parte de la cobertura periodística del producto. Sin embargo, tiempo después, Meta empezó a enviar a sus contactos notificaciones dentro de Instagram para indicar cuáles de sus amigos estaban usando la aplicación, aparentemente como una táctica para incentivar nuevas descargas.

Una notificación social que pocos esperarían

La experiencia relatada muestra que la visibilidad de uso no fue un evento aislado. Casi un año después de instalar la app, la autora seguía recibiendo mensajes de amigos que le avisaban que Instagram les había notificado que ella estaba en Meta AI. Según el reporte, esa alerta se mostraba con una prominencia similar a la de una notificación por un nuevo seguidor.

El contexto ayuda a entender por qué esa mecánica pudo resultar tan visible. En su primer mes y medio en la App Store, la aplicación Meta AI había registrado apenas 6,5 millones de descargas, de acuerdo con datos de la firma de inteligencia de mercado Appfigures citados en el reporte. Aunque la cifra es considerable, luce modesta para una compañía que estima que el 42% del mundo utiliza a diario al menos una de sus apps.

En ese entorno, los primeros usuarios podían destacar más en los sistemas de recomendación y notificaciones de Meta. El resultado, según la crítica, fue que personas de su círculo social, familiares e incluso contactos lejanos terminaron enterándose de que había instalado una app que preferiría usar sin exposición pública.

Ahora la situación podría repetirse a mayor escala. Tras el relanzamiento del chatbot potenciado por Muse Spark, la app Meta AI escaló hasta el puesto número 5 de la App Store en Estados Unidos, frente al número 57 que ocupaba previamente, según Appfigures. Ese repunte en descargas es precisamente lo que vuelve relevante la advertencia sobre las notificaciones cruzadas entre plataformas.

El problema de fondo: datos compartidos dentro del ecosistema Meta

Más allá de la vergüenza social o lo anecdótico de quedar expuesto ante amigos, el reporte pone el foco en la estructura de datos de Meta. Para usar la app Meta AI, las personas deben iniciar sesión con una cuenta de Meta, lo que normalmente enlaza esa actividad con perfiles ya existentes en Facebook o Instagram.

Esa arquitectura implica que las acciones de un usuario dentro de Meta AI pueden insertarse en el mismo sistema comercial y publicitario que alimenta al resto de servicios de la empresa. El artículo recuerda que Meta utiliza lo que una persona hace en Instagram, Facebook y ahora también en Meta AI para mostrar anuncios dirigidos.

La crítica ilustra ese punto con un ejemplo sensible: si alguien recurriera a Meta AI para consultar sobre un problema relacionado con la menstruación, luego podría recibir en Instagram anuncios de ropa interior menstrual. No se afirma que eso haya ocurrido en un caso concreto, pero sí se subraya que la lógica del ecosistema hace razonable esa preocupación.

Otro elemento cuestionado es el consentimiento. Según el reporte, la app Meta AI no pidió permiso específico para notificar a otras personas sobre su uso de la aplicación. Tampoco solicitó una autorización explícita para convertir conversaciones con IA en insumos potenciales del aparato publicitario, aunque la autora reconoce que muchos de esos permisos probablemente quedan cubiertos dentro de términos de servicio que la mayoría de usuarios no lee en detalle.

Para lectores menos familiarizados con el debate, este tipo de fricción es frecuente en plataformas digitales integradas. Una misma cuenta facilita el acceso y mejora la personalización, pero también concentra datos de comportamiento en múltiples contextos, reduciendo la separación entre vida social, consumo de contenido, publicidad y herramientas de IA.

Los chats privados también quedaron expuestos

La preocupación por Meta AI no se limita a las notificaciones de uso. El reporte recuerda una controversia anterior relacionada con un feed llamado Discover dentro de la app, una función experimental que Meta implementó durante el verano pasado para mostrar interacciones publicadas por usuarios.

Según la autora, la empresa no anticipó de forma adecuada que muchas personas mayores utilizan la app y que algunas de ellas no se sienten del todo cómodas navegando configuraciones o entendiendo el alcance de ciertas acciones. Eso se volvió especialmente problemático en un producto de IA conversacional, donde los usuarios tienden a hablar de temas íntimos, delicados o vergonzosos con mayor libertad que en una red social tradicional.

La combinación de ambos factores generó un escenario delicado. Personas como la socia de a16z, Justine Moore, comenzaron a observar que el feed Discover de Meta AI se llenaba de publicaciones hechas por usuarios de mayor edad que aparentemente no se daban cuenta de que estaban compartiendo sus conversaciones con el resto del mundo.

Algunas interacciones eran triviales o absurdas. El reporte menciona, por ejemplo, el caso de un hombre con acento sureño que preguntó: “Oye, Meta, ¿por qué algunos pedos huelen peor que otros pedos?”. Pero otros casos fueron mucho más sensibles, con usuarios que terminaron exponiendo su dirección de casa, información sobre problemas médicos o inquietudes íntimas sobre su matrimonio.

La publicación aclara que Meta no mostraba esos chats de manera totalmente automática. Los usuarios debían pulsar manualmente una opción para publicarlos. Aun así, la cantidad de ejemplos de información privada compartida por accidente sugería un problema de diseño lo suficientemente serio como para exigir correcciones.

Desde entonces, Meta eliminó ese feed Discover, una medida que parece reconocer de forma implícita que la herramienta había generado riesgos de privacidad difíciles de justificar. Sin embargo, el antecedente sigue siendo relevante porque revela cómo ciertas decisiones de producto pueden producir exposición no intencional, incluso cuando existe una acción manual de por medio.

Más descargas, pero también más escrutinio

El ascenso reciente de Meta AI en la App Store muestra que la compañía sí está logrando atraer atención con su nuevo impulso en inteligencia artificial. Ese avance puede ser importante para una empresa que necesita demostrar que su estrategia en IA tiene tracción real frente a la competencia.

Sin embargo, el crecimiento también amplifica las preguntas sobre el tipo de experiencia que ofrece al usuario. Cuanto más masiva sea la adopción, mayor será el número de personas potencialmente sorprendidas por funciones sociales, conexiones entre servicios y configuraciones de privacidad poco intuitivas.

En el terreno de la IA de consumo, la confianza es un activo central. Los usuarios no solo evalúan la calidad de las respuestas de un chatbot, sino también si pueden usarlo sin temor a quedar expuestos ante amigos, anunciantes o desconocidos. En ese sentido, la polémica alrededor de Meta AI ilustra un reto de diseño que va más allá del rendimiento del modelo.

Por ahora, la advertencia es simple: utilizar una app de IA dentro del ecosistema Meta puede tener efectos visibles fuera de esa app. Y aunque para algunos eso sea apenas un detalle incómodo, para otros refuerza la sensación de que las fronteras entre plataformas, identidad digital y explotación comercial de datos siguen siendo demasiado difusas.

La autora del reporte concluye con ironía que, si Meta AI termina convirtiéndose en una gran moda, al menos podrá decir que estuvo allí primero. Pero no parece apostar con convicción por ese desenlace, en parte porque la app todavía arrastra decisiones de producto que, más que atraer, pueden incomodar a los usuarios.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín