Meta anunció una nueva fase en su estrategia de moderación y seguridad: usará sistemas de IA más avanzados para detectar violaciones de contenido, frenar estafas y reducir su dependencia de proveedores externos, mientras mantiene a revisores humanos en las decisiones más delicadas.
***
- Meta comenzará a desplegar sistemas de IA más avanzados para cumplimiento de contenido en sus aplicaciones cuando superen de forma consistente los métodos actuales.
- La empresa asegura que estas herramientas ya detectan el doble de contenido de solicitud sexual adulta y reducen la tasa de error en más de 60%.
- La compañía también lanzó un asistente de soporte con IA para Facebook e Instagram, disponible 24/7 en móviles y equipos de escritorio.
Meta anunció el jueves que comenzará a implementar sistemas de inteligencia artificial más avanzados para manejar tareas de cumplimiento de contenido en sus plataformas. La medida forma parte de una estrategia más amplia con la que la empresa busca reducir su dependencia de proveedores externos en labores de revisión y control dentro de sus aplicaciones.
Las funciones de cumplimiento de contenido abarcan áreas especialmente sensibles. Entre ellas figuran la detección y eliminación de publicaciones relacionadas con terrorismo, explotación infantil, drogas, fraudes y estafas, un conjunto de categorías que hoy representan parte central de los esfuerzos de seguridad en grandes redes sociales, indica TechCrunch.
La empresa explicó que estos nuevos sistemas solo serán desplegados ampliamente una vez que demuestren, de forma consistente, un mejor desempeño que los métodos actuales. Según la compañía, la idea no es retirar por completo a las personas del proceso, sino combinar automatización avanzada con supervisión humana en los casos de mayor riesgo.
De acuerdo con lo expuesto por Meta en una publicación corporativa, la tecnología podrá asumir tareas repetitivas o particularmente duras para revisores humanos. La firma señaló que esto incluye revisiones de contenido gráfico y áreas donde los actores maliciosos cambian sus tácticas con rapidez, como ocurre con ventas de drogas ilícitas o distintas modalidades de estafas.
Meta dice que la IA mejora la precisión y acelera la respuesta
La compañía sostiene que los nuevos sistemas de IA pueden detectar más violaciones con mayor precisión. Además, afirma que estas herramientas ayudarán a prevenir mejor las estafas, responder con más rapidez ante eventos del mundo real y reducir la sobreaplicación, es decir, evitar acciones de moderación excesivas o equivocadas sobre contenidos que no infringen las reglas.
Entre los primeros resultados divulgados, Meta aseguró que las pruebas iniciales han sido prometedoras. Según la empresa, los sistemas son capaces de detectar el doble de contenido de solicitud sexual adulta en comparación con sus equipos de revisión, al tiempo que reducen la tasa de error en más de 60%.
La compañía también dijo que estas herramientas pueden identificar y prevenir más cuentas de suplantación vinculadas con celebridades y otras personas de alto perfil. Ese punto es relevante porque este tipo de cuentas falsas suele utilizarse para estafas, campañas de manipulación o robo de información personal.
Otro frente señalado por Meta es la protección de cuentas. La empresa indicó que los sistemas pueden ayudar a detener apropiaciones indebidas al detectar señales como inicios de sesión desde nuevas ubicaciones, cambios de contraseña o ediciones hechas a un perfil, elementos que suelen encender alertas tempranas en incidentes de seguridad.
Estafas, phishing y cuentas comprometidas en el centro del nuevo enfoque
Meta agregó que sus sistemas pueden identificar y mitigar alrededor de 5.000 intentos de estafa por día. En esos casos, explicó la compañía, los atacantes intentan engañar a los usuarios para que revelen sus credenciales de acceso, una práctica que encaja con esquemas comunes de phishing y robo de cuentas.
Para una audiencia habituada a seguir temas de tecnología, mercados digitales e IA, este movimiento refleja una tendencia amplia en la industria. Las grandes plataformas están recurriendo cada vez más a modelos automatizados para enfrentar amenazas que mutan rápido, operan a gran escala y explotan tiempos de reacción lentos en sistemas tradicionales de revisión.
Meta remarcó, sin embargo, que los expertos humanos seguirán ocupando un rol clave en el diseño, entrenamiento, supervisión y evaluación de estos sistemas. Según la empresa, serán esas personas quienes midan el desempeño de la IA y tomen las decisiones más complejas y de mayor impacto.
La compañía puso ejemplos concretos sobre esos límites. Indicó que los humanos continuarán siendo centrales en determinaciones de mayor riesgo y sensibilidad, como las apelaciones por desactivación de cuentas o los reportes a fuerzas de seguridad, dos áreas donde un error puede tener consecuencias significativas.
El anuncio llega en medio de cambios en la política de moderación
El movimiento se produce mientras Meta ha venido flexibilizando parte de sus reglas de moderación durante el último año, en un contexto que coincidió con el regreso de Donald Trump a la presidencia de Estados Unidos. Ese trasfondo agrega una dimensión política al anuncio, ya que la discusión sobre qué debe moderarse y cómo hacerlo sigue siendo uno de los puntos más disputados en las plataformas digitales.
El año pasado, la empresa puso fin a su programa de verificación de datos de terceros y optó por un modelo similar a Community Notes. También levantó restricciones en torno a lo que describió como “temas que son parte del discurso predominante” y dijo que se alentaría a los usuarios a adoptar un enfoque “personalizado” respecto del contenido político.
Ese cambio de marco hace que el nuevo impulso hacia la IA en cumplimiento de contenido pueda ser leído de dos formas. Por un lado, como una apuesta por eficiencia y escalabilidad. Por otro, como un intento de reforzar áreas de seguridad duras, como estafas, suplantación o explotación, mientras se relajan ciertos controles en espacios de debate político y social.
Según reportó TechCrunch, la actualización también coincide con un momento de presión legal para Meta y otras grandes tecnológicas. Varias demandas en curso buscan responsabilizar a las compañías de redes sociales por daños causados a niños y usuarios jóvenes, un punto que ha elevado el escrutinio sobre sus sistemas de diseño, recomendación y moderación.
Nuevo asistente de soporte con IA para Facebook e Instagram
Junto con estos cambios, Meta anunció el lanzamiento de un asistente de soporte de IA que ofrecerá atención a usuarios las 24 horas del día, los 7 días de la semana. El servicio ya comenzó a desplegarse globalmente dentro de las aplicaciones de Facebook e Instagram para iOS y Android.
La compañía indicó que este asistente también estará disponible dentro del Centro de Ayuda de Facebook e Instagram en equipos de escritorio. Aunque el anuncio no detalla el conjunto completo de funciones, la integración sugiere que Meta busca trasladar más procesos de atención, guía y resolución de incidencias hacia interfaces automatizadas.
En la práctica, la combinación de moderación algorítmica, defensa contra estafas y soporte automatizado muestra una visión cada vez más integrada del uso de IA en plataformas masivas. No se trata solo de eliminar contenido infractor, sino también de proteger cuentas, asistir a usuarios y responder con mayor velocidad ante amenazas cambiantes.
Por ahora, el mensaje de Meta es claro: la IA tendrá un papel creciente en seguridad y cumplimiento, pero no reemplazará por completo a los equipos humanos. La empresa apuesta a que esa mezcla le permitirá escalar operaciones, reducir errores y responder mejor a un entorno donde los riesgos digitales evolucionan con rapidez.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Criptomonedas
FalconX evalúa lanzar IPO mientras Cantor compite por liderar con su salida a bolsa
Adopción
BlackRock supera los USD $250 millones en su ETF Ethereum con staking en solo una semana
Bitcoin
DDC suma más Bitcoin a sus reservas pese a caída del mercado y presión bajista de acciones
Criptomonedas