La Comisión Europea concluyó de forma preliminar que Meta incumple la Ley de Servicios Digitales al no aplicar controles eficaces para impedir que menores de 13 años entren en Facebook e Instagram. El caso podría derivar en una multa de hasta 6% de la facturación global del grupo y pone el foco sobre la seguridad infantil en las grandes plataformas.
***
- La UE sostiene que Meta no hace cumplir de forma efectiva la edad mínima de 13 años en Facebook e Instagram.
- Bruselas cuestiona la autodeclaración de edad y una herramienta que considera difícil de usar e ineficaz.
- Si las conclusiones preliminares se confirman, Meta podría enfrentar una multa de hasta 6% de su facturación anual mundial.
La Comisión Europea concluyó de manera preliminar que Meta está incumpliendo la Ley de Servicios Digitales de la Unión Europea al no impedir de forma efectiva que menores de 13 años accedan a Facebook e Instagram. El señalamiento eleva la presión sobre la matriz de ambas plataformas en un momento de creciente escrutinio global sobre la seguridad infantil en redes sociales.
El punto central de la investigación es que Meta no estaría haciendo cumplir su propia edad mínima de acceso. Según la evaluación inicial de Bruselas, los menores pueden abrir cuentas con una fecha de nacimiento falsa y no existen controles suficientes para verificar esa autodeclaración.
La Comisión también cuestionó la herramienta disponible para reportar cuentas de usuarios menores de edad. A su juicio, el mecanismo es difícil de usar, requiere varios clics para llegar al formulario y, aun cuando se presenta una denuncia, a menudo no existe un seguimiento adecuado para retirar al menor de la plataforma.
Meta rechazó las conclusiones preliminares. Un portavoz de la empresa dijo que Facebook e Instagram están destinados a personas de 13 años o más, y que la compañía dispone de medidas para detectar y eliminar cuentas de usuarios por debajo de esa edad.
Qué encontró la Comisión Europea
La investigación de la Comisión Europea se enmarca en la Ley de Servicios Digitales, conocida como DSA por sus siglas en inglés. Esta norma obliga a las plataformas a identificar y mitigar de forma diligente los riesgos que puedan afectar a los usuarios, especialmente cuando se trata de menores.
En este caso, Bruselas sostuvo que Meta no dispone de medidas eficaces para impedir que niños menores de 13 años entren en sus servicios. La evaluación preliminar señala que la exigencia de edad mínima no se está aplicando de forma adecuada en Instagram y Facebook.
Henna Virkkunen, alta responsable de política tecnológica de la Comisión, afirmó que las conclusiones preliminares muestran que ambas plataformas hacen muy poco para evitar que niños por debajo de esa edad utilicen sus servicios. También remarcó que la DSA exige que las plataformas hagan cumplir sus propias reglas, en lugar de tratarlas como simples declaraciones escritas.
La Comisión añadió que Meta debería cambiar su metodología de evaluación de riesgos para analizar mejor qué amenazas surgen en Instagram y Facebook dentro de la Unión Europea y cómo se manifiestan. Entre esos riesgos, las autoridades mencionaron el ciberacoso, el grooming y la exposición a experiencias no apropiadas para la edad.
De acuerdo con estimaciones de funcionarios europeos citadas por la prensa británica, alrededor de 12% de los menores de 13 años en la UE utilizan Instagram y Facebook. Esa cifra ayuda a explicar por qué el expediente ha ganado peso político en Bruselas.
Por qué la verificación de edad está en el centro del debate
La controversia gira en buena parte alrededor de la forma en que las plataformas verifican la edad de sus usuarios. Hoy, uno de los principales problemas para los reguladores es que la autodeclaración puede ser eludida con facilidad, lo que permite que menores se registren con fechas de nacimiento falsas.
Ese punto no afecta solo a Meta. En marzo, reguladores del Reino Unido instaron a grandes plataformas como YouTube, TikTok, Snapchat, Instagram y Facebook a adoptar protecciones más estrictas para niños y adolescentes.
La Information Commissioner’s Office del Reino Unido sostuvo entonces que las redes sociales deben aplicar mejores tecnologías de verificación de edad y dejar de depender únicamente de sistemas de autodeclaración. Entre las alternativas mencionadas figuraron la estimación facial de edad, la identificación digital y la comparación única de fotografías.
Paul Arnold, director ejecutivo de la ICO, advirtió en aquella oportunidad que el statu quo no está funcionando y que la industria debe hacer más para proteger a los niños. Su mensaje fue que las empresas deben identificar e implementar cuanto antes tecnologías viables que impidan el acceso de usuarios por debajo de la edad mínima.
En paralelo, la Comisión Europea instó a los Estados miembros a tener en funcionamiento antes de fin de año una aplicación comunitaria de verificación de edad. La idea es permitir que los usuarios demuestren cuántos años tienen sin compartir otros datos personales con la plataforma a la que desean acceder.
Esa aplicación podría operar de manera independiente o integrarse en las carteras de identidad digital de los gobiernos nacionales. Sin embargo, algunos Estados miembros prefieren sus propias soluciones, y un experto en ciberseguridad dijo haber vulnerado una versión de demostración en menos de dos minutos. La Comisión respondió que se trataba de una demo y que la vulnerabilidad ya fue corregida.
La respuesta de Meta y el posible costo financiero
Meta discrepó formalmente de las conclusiones preliminares. La empresa sostuvo que sigue invirtiendo en tecnologías para encontrar y eliminar cuentas de usuarios menores de la edad permitida y adelantó que la próxima semana compartirá más detalles sobre medidas adicionales que pondrá en marcha.
La compañía también argumentó que determinar con precisión la edad real de los usuarios es un desafío de toda la industria. Según su portavoz, se trata de un problema que requiere una solución compartida entre empresas, reguladores y desarrolladores de tecnología.
El proceso, no obstante, sigue avanzando. Meta ahora podrá revisar el expediente de la investigación y responder por escrito a las conclusiones preliminares antes de que la Comisión adopte una decisión definitiva.
Si Bruselas confirma su postura en la investigación final, la empresa podría ser multada con hasta 6% de su facturación anual total a escala global. Según la información reportada por The Guardian, Meta registró ingresos por USD $201.000 millones en 2025.
Esa posible sanción sería relevante no solo por su magnitud económica, sino también por el precedente regulatorio que podría sentar para otras plataformas. La DSA es una de las apuestas más ambiciosas de Europa para disciplinar a los grandes actores digitales, y este caso pone a prueba su capacidad de ejecución.
Más presión política y judicial sobre las redes sociales
El expediente europeo llega después de dos reveses judiciales de alto perfil en Estados Unidos durante marzo. Uno de ellos concluyó que ciertos aspectos del diseño de la plataforma contribuyeron a la adicción y a daños en la salud mental de adolescentes. El otro fallo determinó que la empresa engañó a los usuarios sobre la seguridad de los niños en sus plataformas.
Aunque esos casos corresponden a otro marco jurídico, refuerzan la narrativa de que la seguridad infantil se ha convertido en uno de los principales frentes de riesgo para Meta.
Al mismo tiempo, varios gobiernos debaten prohibiciones más amplias sobre el uso de redes sociales por menores de 16 años. Australia ya avanzó con una prohibición general, mientras que Reino Unido, España y Francia estudian fórmulas legislativas similares.
España quiere vetar el acceso a redes sociales para menores de 16 años con el argumento de proteger a los niños del llamado salvaje oeste digital. En Francia, legisladores han respaldado restricciones parecidas para menores de 15 años, y el gobierno británico dijo esta semana que evalúa restricciones de edad o de funcionalidad para menores de 16.
La discusión refleja un cambio de tono entre gobiernos y supervisores. Ya no se trata solo de moderación de contenidos, sino también del diseño de los sistemas de acceso, los algoritmos y las herramientas de control para limitar riesgos sobre usuarios jóvenes.
Dentro de la investigación abierta por la Comisión en mayo de 2024 aún quedan otras líneas activas. Entre ellas figura si Meta está haciendo lo suficiente para proteger la salud física y mental de usuarios jóvenes, así como los posibles efectos adictivos de sus plataformas y los llamados efectos de madriguera de conejo, donde un algoritmo puede empujar a los menores hacia contenido negativo o extremo.
Por ahora, la conclusión de Bruselas sigue siendo preliminar, aunque el mensaje político ya es claro: para los reguladores europeos, fijar una edad mínima en los términos de servicio ya no basta si la plataforma no puede demostrar que realmente la hace cumplir.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Gemini ya permite crear PDF, Word y Excel directamente desde el chat
Empresas
OpenAI impone curiosa regla para impedir que su IA Codex hable de duendes y otras criaturas
Blockchain
Circle lanza nanopagos en mainnet con USDC sin gas para la economía agéntica
IA