Meta suspendió de forma indefinida su trabajo con Mercor tras una brecha de seguridad que podría haber expuesto datos sensibles usados para entrenar modelos de inteligencia artificial.
***
- Meta pausó todo su trabajo con Mercor mientras investiga el alcance de una brecha de seguridad en la startup.
- OpenAI confirmó que revisa el incidente, aunque aseguró que no afecta los datos de sus usuarios.
- La intrusión estaría vinculada a versiones comprometidas de LiteLLM y a una campaña más amplia de ataques a la cadena de suministro.
La decisión de Meta de pausar indefinidamente su trabajo con Mercor abrió un nuevo frente de preocupación en la industria de inteligencia artificial. El caso no gira en torno a datos de usuarios finales, sino a algo que para los laboratorios resulta igual o incluso más sensible: los conjuntos de datos propietarios con los que entrenan y afinan sus modelos.
Mercor es una firma de contratación de datos en la que se apoyan compañías como OpenAI, Anthropic y otros desarrolladores de IA para generar información de entrenamiento a medida. Ese trabajo suele realizarse bajo fuerte reserva, porque puede ofrecer pistas sobre cómo se construyen sistemas capaces de impulsar productos como ChatGPT o Claude Code.
Según reportó WIRED, Meta detuvo toda su colaboración con Mercor mientras investiga una importante brecha de seguridad que afectó a la startup. Dos fuentes consultadas por ese medio señalaron que la pausa no tiene una fecha definida de finalización, y otras personas familiarizadas con el asunto dijeron que varios grandes laboratorios también están reevaluando sus vínculos con la empresa.
El episodio ilustra un problema creciente en el ecosistema tecnológico: la exposición de proveedores especializados puede comprometer secretos estratégicos de compañías mucho más grandes. En el caso de la IA, la sensibilidad es máxima, porque los datos de entrenamiento y los procesos de etiquetado son piezas centrales de la ventaja competitiva.
Meta frena proyectos mientras OpenAI revisa el incidente
Por ahora, no está claro si la información expuesta en la brecha de Mercor sería suficiente para ayudar de forma significativa a un competidor. Aun así, la reacción de Meta muestra el nivel de cautela que existe cuando se trata de datos internos relacionados con entrenamiento de modelos.
OpenAI no detuvo sus proyectos actuales con Mercor, pero sí investiga cómo pudo haberse expuesto su información de entrenamiento propietaria. Un portavoz de la empresa confirmó esa revisión y agregó que el incidente no afecta de ninguna manera los datos de los usuarios de OpenAI.
Anthropic, por su parte, no respondió de inmediato a una solicitud de comentarios. El silencio no elimina la relevancia del caso, porque la startup aparece entre las compañías que dependen de este tipo de proveedores para escalar procesos de generación y validación de datos humanos para sus modelos.
La importancia de estas firmas externas suele pasar desapercibida para el público general. Sin embargo, en la práctica, funcionan como una capa crítica de infraestructura para la IA moderna, al coordinar redes masivas de contratistas que producen conjuntos de datos propietarios adaptados a las necesidades de cada laboratorio.
Ese carácter estratégico explica por qué los laboratorios son especialmente reservados con esta información. Los datos pueden revelar a rivales, detalles valiosos sobre prioridades, métodos de entrenamiento y posibles direcciones de producto.
Mercor confirmó el ataque y contratistas enfrentan incertidumbre
Mercor confirmó el incidente en un correo electrónico enviado a su personal el 31 de marzo. En ese mensaje, la empresa indicó que había ocurrido un incidente de seguridad reciente que afectó a sus sistemas junto con miles de otras organizaciones en todo el mundo.
Un empleado de Mercor repitió esa explicación en un mensaje dirigido a contratistas el jueves, de acuerdo con la información conocida por WIRED. Aun así, los colaboradores asignados a proyectos de Meta no recibieron detalles completos sobre los motivos de la interrupción.
La consecuencia inmediata para muchos de ellos es práctica y delicada. Las personas contratadas para proyectos de Meta no pueden registrar horas hasta que, y si, esas tareas se reanudan, lo que en la práctica podría dejarlas sin trabajo, según una fuente familiarizada con el tema.
Conversaciones internas revisadas por el medio indican que Mercor busca proyectos adicionales para los afectados. Pero esa salida no resuelve de inmediato la incertidumbre laboral que puede generar una pausa indefinida en iniciativas vinculadas a uno de los mayores compradores de servicios de etiquetado y generación de datos del mundo.
En un canal de Slack relacionado con Chordus, un proyecto específico de Meta, un líder de proyecto dijo al personal que Mercor estaba reevaluando actualmente el alcance del proyecto. Chordus, según la información disponible, busca enseñar a modelos de IA a usar múltiples fuentes de internet para verificar sus respuestas a las consultas de los usuarios.
Ese detalle ayuda a entender por qué el incidente resulta tan sensible. No se trata solo de documentos internos, sino también de procesos de trabajo que pueden mostrar cómo una gran tecnológica intenta mejorar la precisión, la verificación y la confiabilidad de sus modelos.
LiteLLM, TeamPCP y una campaña mayor de cadena de suministro
Una de las piezas más relevantes de esta historia es la posible vía de entrada. Un atacante conocido como TeamPCP parece haber comprometido recientemente dos versiones de la herramienta de API para IA LiteLLM, lo que expuso a empresas y servicios que la integran y que instalaron esas actualizaciones contaminadas.
La naturaleza del problema eleva la gravedad del caso. Cuando una intrusión se produce por medio de una dependencia de software ampliamente utilizada, el impacto puede multiplicarse con rapidez y alcanzar a miles de organizaciones que nunca fueron atacadas de forma directa.
En ese contexto, la brecha en Mercor sirve como un ejemplo concreto de cuán delicada puede ser la información comprometida. El incidente no solo afecta operaciones, sino también activos intangibles de alto valor relacionados con la construcción de modelos de IA.
Mercor y sus competidores, entre ellos Surge, Handshake, Turing, Labelbox y Scale AI, se han ganado una reputación de ser extremadamente reservados sobre los servicios que ofrecen a los grandes laboratorios. Es raro que sus directivos hablen en público sobre trabajos concretos, y dentro de las propias organizaciones suelen emplearse nombres en clave para identificar proyectos.
Esa opacidad tiene razones comerciales y de seguridad. En una industria donde una mejora marginal en datos o evaluación puede traducirse en una ventaja relevante, revelar metodologías o socios específicos puede ser costoso.
Confusión con Lapsus$ y dudas sobre la motivación del ataque
La investigación también se complicó por la aparición de otro actor. Un grupo que usaba el conocido nombre Lapsus$ aseguró esta semana que había vulnerado a Mercor y ofreció vender en Telegram y en un clon de BreachForums varios supuestos datos de la compañía.
Entre el material que ese actor dijo poseer figuraban una base de datos de más de 200 GB, casi 1 TB de código fuente y 3 TB de video y otra información. Sin embargo, investigadores de seguridad señalaron que múltiples grupos criminales emplean ahora el nombre Lapsus$, lo que dificulta atribuir los hechos al colectivo original.
La confirmación de Mercor sobre la conexión con LiteLLM sugiere que el atacante probablemente sería TeamPCP o un actor conectado con ese grupo. Esa lectura reduce el peso de la versión difundida bajo el nombre Lapsus$, aunque no elimina la confusión típica de este tipo de incidentes en la dark web.
TeamPCP parece haber comprometido ambas actualizaciones de LiteLLM como parte de una campaña más amplia de ataques a la cadena de suministro que ha ganado impulso en los últimos meses. Esa ofensiva ayudó a colocar al grupo en una posición de mayor visibilidad dentro del mapa reciente de amenazas.
Además de lanzar ataques de extorsión de datos y colaborar con grupos de ransomware, como el grupo conocido como Vect, TeamPCP también incursionó en un terreno político. Según la información disponible, el grupo propagó un gusano de borrado de datos llamado CanisterWorm a través de instancias vulnerables en la nube con el farsi como idioma predeterminado o relojes configurados en la zona horaria de Irán.
Allan Liska, analista de la firma de seguridad Recorded Future especializado en ransomware, afirmó que TeamPCP está definitivamente motivado por el dinero. También señaló que podría existir algún componente geopolítico, aunque consideró difícil determinar qué es real y qué parte responde a fanfarronería, sobre todo por tratarse de un grupo relativamente nuevo.
Sobre las publicaciones en la dark web con supuestos datos de Mercor, Liska fue tajante al señalar que no hay absolutamente nada que conecte ese material con el Lapsus$ original. Esa evaluación refuerza la idea de que la atribución en ciberseguridad sigue siendo uno de los elementos más complejos y más fáciles de manipular.
Más allá de la autoría final, el caso ya dejó una señal clara para el sector: la carrera por desarrollar IA depende de una red de proveedores, herramientas y contratistas cuya seguridad puede convertirse en el eslabón decisivo. Cuando esa cadena se rompe, no solo se frena un proyecto. También quedan expuestos secretos industriales que podrían definir la próxima etapa de competencia entre los grandes laboratorios.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
Anthropic presenta herramienta para detectar diferencias de comportamiento entre modelos de IA
IA
La IA acelera hacia 2026 mientras Anthropic detecta patrones emocionales en Claude
Bitcoin
Avances cuánticos acercan el riesgo real para Bitcoin, RSA y ECC
IA