Meta activó una nueva función para que los padres vean los temas que sus hijos adolescentes han consultado con Meta AI durante la última semana, una medida que llega en medio de mayor presión legal y regulatoria sobre la seguridad infantil en plataformas digitales.
***
- La nueva pestaña “Insights” permite a los padres revisar categorías temáticas discutidas con Meta AI en Facebook, Messenger e Instagram.
- La función ya opera en Estados Unidos, Reino Unido, Australia, Canadá y Brasil, con expansión global prevista en las próximas semanas.
- El anuncio ocurre después de que Meta suspendiera personajes de IA para menores y enfrentara un fallo judicial en Nuevo México.
Meta anunció una nueva herramienta de supervisión para padres que permite revisar los temas sobre los que un adolescente ha conversado con Meta AI durante los últimos siete días. La función aplica en Facebook, Messenger e Instagram, y busca dar más visibilidad a las familias sobre el uso de asistentes conversacionales dentro del ecosistema de la compañía.
La novedad se integra en el centro de supervisión de Meta mediante una pestaña llamada “Insights”. Allí, los padres pueden ver categorías generales de conversación, en lugar del contenido textual completo de los intercambios. Entre los temas visibles aparecen escuela, entretenimiento, estilo de vida, viajes, escritura y salud y bienestar.
El cambio llega en un momento sensible para las grandes tecnológicas. En los últimos meses, la seguridad infantil en plataformas digitales se ha convertido en un frente clave de presión judicial, regulatoria y reputacional, especialmente cuando las empresas despliegan herramientas de inteligencia artificial dirigidas, o accesibles, a menores de edad.
Según informó TechCrunch, los padres también podrán pulsar cada categoría para revisar subtemas asociados. Por ejemplo, “Lifestyle” se divide en moda, comida y vacaciones, mientras que “Health and Wellbeing” incluye ejercicio, salud física y salud mental.
Meta señaló que la actualización ya está disponible en Estados Unidos, Reino Unido, Australia, Canadá y Brasil, y agregó que el despliegue global se llevará a cabo en las próximas semanas, lo que sugiere que la función se convertirá en una capa estándar dentro de sus herramientas de control parental.
Para los lectores menos familiarizados con este tipo de funciones, la supervisión parental en plataformas digitales suele ofrecer reportes agregados o alertas, no necesariamente acceso completo a mensajes. En este caso, Meta parece apostar por un punto intermedio: informar a los padres sobre las áreas temáticas de interés de sus hijos sin exponer cada conversación palabra por palabra.
Una herramienta que Meta ya había adelantado
La empresa mostró por primera vez estos “insights” en octubre de 2025, cuando dijo que estaba desarrollando nuevas opciones para ayudar a los padres a orientar a sus adolescentes en el uso de la inteligencia artificial. El anuncio de ahora convierte aquella idea en una función concreta y ya operativa en varios mercados relevantes.
En ese momento, Meta también había presentado otras herramientas que habrían permitido a los padres bloquear el acceso a personajes específicos de IA o desactivarlos por completo. Sin embargo, esa línea de producto cambió de rumbo pocos meses después, antes de consolidarse como una oferta estable para adolescentes.
En enero de 2026, la compañía suspendió globalmente el acceso de los adolescentes a sus personajes de IA en todas sus aplicaciones. Según indicó Meta entonces, la pausa respondía a la intención de desarrollar una versión actualizada y específicamente diseñada para usuarios menores de edad.
Los personajes de Meta AI funcionaban como personalidades interactivas con rasgos propios, pensadas para que las personas conversaran con ellas como si fueran figuras humanas con un rol concreto. Algunos se presentaban como perfiles funcionales, por ejemplo un chef, mientras otros imitaban a celebridades reconocibles como Snoop Dogg y Paris Hilton.
Ese formato generó interés comercial, pero también inquietud. Cuando un sistema conversacional adopta una personalidad definida, el vínculo con usuarios jóvenes puede sentirse más inmersivo o persuasivo, lo que abre preguntas sobre manipulación, dependencia emocional y exposición a contenidos inadecuados.
El peso del contexto legal y la seguridad infantil
La suspensión de esos personajes para adolescentes ocurrió apenas unos días antes de que avanzara a juicio un caso judicial contra Meta en Nuevo México. En esa demanda, se acusaba a la empresa de no proteger adecuadamente a los menores en sus plataformas.
Meta terminó perdiendo el caso, un resultado especialmente relevante porque marcó la primera vez que un tribunal consideró legalmente responsable a la empresa por poner en peligro la seguridad infantil. El dato cambia el contexto de lectura del anuncio actual, ya que convierte la nueva herramienta en algo más que una mejora de producto.
La compañía enfrenta además otros litigios relacionados con protección de menores, un problema que no afecta solo a Meta, sino también a varias firmas tecnológicas de gran escala. En ese entorno, cada ajuste de política sobre adolescentes, IA y supervisión parental puede interpretarse como parte de una estrategia más amplia de mitigación de riesgos.
Por eso, no sorprende que Meta haya decidido frenar los personajes de IA para menores y, al mismo tiempo, avanzar con mecanismos que den más control o al menos más información a los padres. La señal de fondo es clara: la empresa busca demostrar que está incorporando resguardos visibles en uno de los ámbitos más sensibles de la adopción de IA de consumo.
También hay una dimensión reputacional. En un mercado donde la inteligencia artificial se integra cada vez más rápido en productos cotidianos, las compañías necesitan convencer a usuarios, reguladores y tribunales de que el crecimiento no se produce a costa de la seguridad infantil.
Cómo funcionará la nueva pestaña y qué sigue
La pestaña “Insights” no solo enumera temas, sino que organiza la actividad reciente de los adolescentes con Meta AI de una forma más legible para un adulto responsable. En vez de mostrar una lista dispersa de preguntas, agrupa los intercambios en categorías y subcategorías, lo que facilita detectar patrones de interés o posibles áreas sensibles.
Meta anunció además el miércoles previo que empezará a ofrecer a los padres sugerencias para iniciar conversaciones con sus hijos. La intención, según la empresa, es ayudar a que esos diálogos sean abiertos y no juzgadores, un punto importante si se busca que la supervisión no se convierta en una ruptura total de confianza entre padres y adolescentes.
Junto con eso, la empresa dijo que está lanzando un nuevo AI Wellbeing Expert Council. Ese consejo de expertos estará orientado a ayudar a dar forma al desarrollo de productos de IA destinados a adolescentes, lo que indica que Meta quiere respaldar sus decisiones con asesoría especializada en bienestar y seguridad.
La noticia también muestra una tendencia más amplia del sector tecnológico. A medida que los chatbots se integran en redes sociales, mensajería y plataformas de contenido, la conversación ya no gira solo en torno a innovación o engagement, sino a gobernanza, diseño responsable y límites de uso para públicos vulnerables.
En ese sentido, la medida de Meta probablemente será observada de cerca por competidores, reguladores y grupos de defensa infantil. Si la herramienta logra equilibrar supervisión, privacidad y utilidad práctica, podría convertirse en un modelo replicable. Si no, reforzará el argumento de quienes sostienen que la IA para menores requiere reglas más estrictas desde el inicio.
Por ahora, lo concreto es que los padres en cinco países ya pueden acceder a una ventana temática sobre las interacciones de sus hijos con Meta AI. Y con el despliegue global en camino, la empresa eleva la apuesta por mostrar que su enfoque hacia adolescentes y asistentes de IA está entrando en una fase mucho más vigilada.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
OpenAI, Anthropic y Google aceleran la carrera de IA mientras el cómputo redefine la economía
Bancos y Pagos
Pornhub sustituye la stablecoin USDT de Tether por USDC de Circle para pagar a creadores
Criptomonedas
FTX vendió por USD $200.000 una participación en Cursor que hoy valdría USD $3.000 millones
Empresas