OpenAI despidió a un empleado por operar en mercados de predicción como Polymarket usando, según la empresa, información confidencial. El episodio vuelve a poner en primer plano el debate sobre el “insider trading” en plataformas que insisten en verse como mercados financieros, no como sitios de apuestas.
***
- OpenAI confirmó a Wired el despido de un empleado por presunto uso de información confidencial en mercados de predicción.
- La empresa no reveló el nombre, pero citó una política interna que prohíbe aprovechar información privilegiada para beneficio personal.
- El caso ocurre días después de que Kalshi, un intercambio regulado, multara y vetara a un editor de MrBeast por un presunto hecho similar.
🚨 OpenAI despide a empleado por uso de información confidencial en mercados de predicción.
La compañía confirma la violación de su política interna prohibiendo el insider trading.
El caso se da en un contexto de creciente vigilancia sobre el uso de información sensible.… pic.twitter.com/QubgpJ0MkS
— Diario฿itcoin (@DiarioBitcoin) February 28, 2026
OpenAI despidió a un empleado por su actividad en mercados de predicción, incluido Polymarket, luego de concluir que habría utilizado información confidencial relacionada con sus operaciones. La compañía confirmó el hecho a Wired, sin dar a conocer la identidad de la persona involucrada. La decisión se alinea con normas internas que buscan limitar conflictos de interés en un sector donde la información puede convertirse en una ventaja económica inmediata.
De acuerdo con un portavoz, la conducta atribuida al trabajador violó una política corporativa que prohíbe a los empleados usar información privilegiada para beneficio personal. Esa restricción incluye, de forma explícita, los mercados de predicción. El caso introduce una pregunta incómoda para la industria de la inteligencia artificial: ¿cómo se gestiona el riesgo de filtraciones cuando existen instrumentos financieros que premian anticipar anuncios, lanzamientos o movimientos corporativos?
Los mercados de predicción se han expandido como una vía para “invertir” en probabilidades sobre eventos del mundo real. En estas plataformas, los usuarios compran y venden posiciones vinculadas a resultados futuros, desde elecciones hasta indicadores económicos o hitos de empresas tecnológicas. En el caso de OpenAI, existen mercados que especulan sobre el tipo de productos que la compañía podría anunciar en 2026 y sobre cuándo podría convertirse en una empresa pública.
La noticia también aparece en un contexto de mayor vigilancia sobre el uso de información sensible fuera de los mercados tradicionales. En espacios donde el producto es la probabilidad, cualquier dato no público puede mover precios de manera abrupta. Eso eleva el valor de lo que sucede puertas adentro de compañías como OpenAI, que suelen manejar cronogramas y estrategias bajo estricta confidencialidad.
Qué se sabe del despido y la política interna
OpenAI no reveló el nombre del empleado despedido. Tampoco difundió detalles sobre qué operaciones específicas se realizaron, ni sobre el volumen involucrado o el período exacto de la actividad. Lo que sí quedó establecido, según el portavoz, es que el presunto uso de información confidencial fue el elemento central para tomar la medida disciplinaria.
La empresa enmarcó el caso en una política que prohíbe a los trabajadores usar información privilegiada para beneficio personal. Esa regla, de acuerdo con la misma vocería, se extiende a los mercados de predicción, no solo a instrumentos bursátiles tradicionales. El mensaje sugiere que, para el compliance corporativo, apostar o posicionarse en probabilidades puede generar riesgos comparables a los del insider trading.
En compañías tecnológicas, estos lineamientos suelen buscar dos objetivos: proteger secretos comerciales y evitar que la conducta individual exponga a la organización a investigación, sanciones o daño reputacional. Los mercados de predicción agregan una complejidad adicional porque pueden estar ligados a temas internos: cronogramas de lanzamientos, acuerdos, adquisiciones o, como en este caso, expectativas sobre anuncios futuros e incluso una eventual oferta pública inicial.
Lo ocurrido deja abiertas preguntas sobre si la compañía revisará controles internos o reforzará capacitaciones sobre el uso de información no pública. También queda la duda sobre cómo otras firmas de IA ajustarán su gobernanza ante la popularidad de estas plataformas.
Por qué Polymarket y Kalshi están en el centro del debate
Plataformas como Polymarket y Kalshi permiten que las personas tomen posiciones sobre resultados verificables de eventos del mundo real. En la práctica, el usuario puede ganar dinero si acierta. Esa mecánica ha impulsado la adopción, pero también ha encendido alertas éticas y regulatorias, sobre todo cuando se trata de eventos donde ciertos actores pueden tener acceso privilegiado a información.
Polymarket, por ejemplo, aloja mercados donde se especula sobre qué productos anunciará OpenAI en 2026 y sobre cuándo la empresa se hará pública. La existencia de esos contratos convierte anuncios corporativos en eventos “tradables”, lo que puede incentivar intentos de adelantarse a la información. Para empresas con ciclos intensos de investigación y desarrollo, la tentación de monetizar rumores o datos internos puede ser un problema creciente.
Los mercados de predicción insisten en que no son sitios de apuestas y prefieren definirse como plataformas financieras. La distinción no es menor. Si se los percibe como instrumentos financieros, la expectativa de controles y sanciones frente a la información privilegiada aumenta, y también la presión por marcos de cumplimiento más rígidos.
Kalshi, en particular, es un intercambio regulado. Ese estatus lo coloca en un terreno de supervisión más formal, al menos en comparación con otras iniciativas del ecosistema. En ese contexto, la disciplina interna de OpenAI puede leerse como una señal de alineamiento preventivo con estándares típicos de mercados regulados, aunque el episodio ocurra en una industria que todavía está definiendo límites.
Un antecedente reciente: el caso del editor de MrBeast y el ejemplo DOGE
El despido en OpenAI se conoce pocos días después de que Kalshi multara y prohibiera a un editor de MrBeast por un presunto uso de información privilegiada similar. Ese antecedente refuerza la idea de que, incluso en plataformas que se presentan como alternativas a las apuestas, existen normas y castigos cuando se sospecha de ventajas informativas indebidas.
El paralelo es relevante porque muestra que el problema no es hipotético. A medida que estos mercados ganan volumen y notoriedad, también se vuelven más sensibles a episodios que pueden afectar su credibilidad. Para el público, la confianza depende de que el precio de una probabilidad refleje información pública y análisis, no filtraciones internas.
La nota también recuerda un caso llamativo: un contador ganó USD $470.300 en Kalshi apostando en contra de los seguidores de DOGE. El episodio ilustra el atractivo económico de estas plataformas y por qué pueden convertirse en un imán para estrategias agresivas. Si hay oportunidades de retornos extraordinarios, el incentivo a buscar una ventaja informativa crece.
En conjunto, estos eventos refuerzan un dilema: los mercados de predicción pueden ofrecer señales útiles sobre expectativas colectivas, pero también abren un canal para que información confidencial se traduzca rápidamente en dinero. Para empresas como OpenAI, el desafío será equilibrar transparencia, seguridad interna y la realidad de que sus hitos ya forman parte del “mercado” de probabilidades.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
La semana en que la IA sacudió Wall Street: pánico, promesas y despidos
Nvidia prepara un nuevo chip para acelerar la inferencia de IA y apunta a clientes como OpenAI
Presidente Trump ordena a agencias federales dejar de usar Anthropic tras choque con el Pentágono