OpenAI abrió una vacante crítica para un nuevo jefe de preparación, un rol que definirá cómo la empresa anticipa y mitiga daños graves derivados de modelos de IA cada vez más capaces, en un contexto de presión pública por posibles impactos en salud mental y por el riesgo de mal uso.
***
- OpenAI busca un nuevo Head of Preparedness para liderar su estrategia técnica y la ejecución de su marco de preparación ante riesgos de IA avanzada.
- El puesto ofrece una compensación de USD $555.000 más acciones, y Sam Altman lo describió como un trabajo “estresante” que exige incorporarse de inmediato.
- La búsqueda llega tras un año de acusaciones sobre efectos de ChatGPT en salud mental, incluyendo demandas por muerte injusta, y luego de varios cambios internos en los equipos de seguridad.
🚨 OpenAI busca Jefe de Preparación para mitigar riesgos de IA 🚨
El nuevo cargo quiere anticipar daños por modelos avanzados.
Sam Altman advirtió sobre el impacto en la salud mental y posibles abusos.
El salario es de USD $555.000 más acciones.
Este rol es crucial frente a… pic.twitter.com/JtFRowsg0D
— Diario฿itcoin (@DiarioBitcoin) December 28, 2025
OpenAI está contratando a un nuevo jefe de preparación, una posición diseñada para anticipar los daños potenciales de sus modelos de inteligencia artificial y las formas en que podrían ser mal utilizados. De acuerdo con la información difundida por Engadget, el objetivo es que este liderazgo ayude a guiar la estrategia de seguridad de la empresa en un momento de alta sensibilidad pública. La vacante se presenta como un punto de apoyo para evaluar riesgos emergentes y responder con medidas preventivas.
La búsqueda ocurre al cierre de un año en el que OpenAI enfrentó numerosas acusaciones relacionadas con el impacto de ChatGPT en la salud mental de los usuarios. Según el medio, entre esos señalamientos se incluyen demandas por muerte injusta. En este contexto, la compañía intenta fortalecer sus capacidades internas para identificar riesgos antes de que se materialicen y escalen en controversias o consecuencias más graves.
En una publicación en X sobre el puesto, el CEO de OpenAI, Sam Altman, reconoció que el “impacto potencial de los modelos en la salud mental” fue algo de lo que vieron un adelanto en 2025. También aludió a otros “desafíos reales” que han aparecido junto con el aumento de capacidades de los modelos. Para Altman, se trata de “un papel crítico en un momento importante”.
Esta discusión conecta con un debate más amplio sobre cómo las empresas de IA deben medir el riesgo sistémico de sus productos. A medida que las herramientas se integran en trabajo, educación y consumo de información, cambian los hábitos de millones de personas. Por eso, la gobernanza de riesgos no es un detalle operativo, sino un componente central de reputación y sostenibilidad empresarial.
Un rol técnico para un problema social y de seguridad
Según la lista de trabajo citada por Engadget, el jefe de preparación ganará USD $555.000, además de acciones. El cargo “liderará la estrategia técnica y la ejecución del marco de Preparación de OpenAI”. Ese marco, según la propia descripción, explica el enfoque de la empresa para rastrear y prepararse frente a capacidades fronterizas que podrían crear nuevos riesgos de daños graves.
El énfasis en “capacidades fronterizas” sugiere que el rol no está pensado para incidentes rutinarios. Se enfoca en escenarios donde el desempeño de los modelos habilita nuevas categorías de abuso. Esto puede incluir usos maliciosos, manipulación, y consecuencias no previstas derivadas de interacción intensiva con sistemas conversacionales, siempre dentro de la lógica de riesgos que la empresa busca mapear.
Altman agregó una advertencia sobre la carga del trabajo: lo calificó como “un trabajo estresante” y señaló que la persona que asuma el rol “entrará de lleno prácticamente de inmediato”. Esa frase apunta a una necesidad operativa urgente. También refleja que el área de seguridad, en empresas de IA de punta, suele funcionar bajo presión permanente y con alta exposición pública.
En la práctica, un marco de preparación puede servir como puente entre investigación y despliegue comercial. Permite fijar criterios internos, umbrales de riesgo y procesos de respuesta. En industrias tecnológicas con productos globales, esos criterios se vuelven esenciales para evitar que una innovación se transforme en un pasivo legal, reputacional o social.
Salud mental, demandas y el costo reputacional de la IA
Engadget señala que OpenAI ha enfrentado acusaciones sobre los impactos de ChatGPT en la salud mental de usuarios. El medio también indica que ha habido demandas por muerte injusta vinculadas a esas preocupaciones. En términos de percepción pública, este tipo de señalamientos eleva el estándar de cuidado esperado, y obliga a explicar cómo se anticipan riesgos que van más allá de fallas técnicas tradicionales.
Cuando una herramienta digital se usa como compañía, orientación o apoyo emocional, el margen de daño cambia. No se trata solo de exactitud de información, sino de efectos psicológicos, dependencia o exposición a interacciones dañinas. En ese escenario, la seguridad deja de limitarse a ciberseguridad o moderación de contenido, y entra en el terreno de impactos humanos difíciles de medir.
La mención explícita de Altman a una “vista previa en 2025” sobre salud mental subraya que la empresa identifica el tema como una categoría de riesgo prioritaria. No implica por sí misma un diagnóstico técnico, pero sí una señal de que el problema ya no es hipotético. El nuevo liderazgo deberá convertir ese reconocimiento en criterios, pruebas y acciones dentro del marco de preparación.
En el ecosistema de IA, el debate sobre mitigación suele incluir límites de uso, evaluaciones internas, y protocolos de escalamiento cuando aparecen señales de daño. Aunque la noticia no detalla medidas concretas adicionales, sí muestra que OpenAI está alineando su estructura organizacional con la idea de prevenir “daños graves”. Eso responde tanto a desafíos técnicos como a expectativas sociales.
Cambios internos: una silla clave que vuelve a abrirse
En los últimos años, los equipos de seguridad de OpenAI han pasado por varios cambios. Según Engadget, el antiguo jefe de preparación de la empresa, Aleksander Madry, fue reasignado en julio de 2024. En ese momento, Altman dijo que el rol sería asumido por los ejecutivos Joaquin Quinonero Candela y Lilian Weng.
La continuidad, sin embargo, se vio alterada poco después. Engadget reporta que Weng dejó la empresa unos meses más tarde. Ese movimiento dejó a la organización con otra reconfiguración en un área que, por definición, requiere consistencia, procesos y memoria institucional para evaluar riesgos de manera acumulativa.
Luego, en julio de 2025, Quinonero Candela anunció su traslado fuera del equipo de preparación para liderar la contratación en OpenAI, según el mismo medio. Con ese cambio, la compañía quedó con el desafío de volver a dotar de mando estable a un frente de alto impacto. La apertura del puesto formaliza esa necesidad y busca concentrar responsabilidades en una sola figura principal.
La secuencia de reasignaciones y salidas no describe por sí sola un problema, pero sí evidencia que la estructura de seguridad ha estado en movimiento. En compañías que desarrollan modelos de frontera, la gestión del talento en seguridad suele ser compleja por el nivel de especialización y por tensiones entre velocidad de producto y cautela. Esta vacante apunta a resolver esa brecha con un rol definido, compensación alta y mandato técnico claro.
Con la contratación, OpenAI intenta reforzar un mensaje: que la mitigación de riesgos no queda solo en declaraciones, sino que se traduce en responsabilidades ejecutivas. La noticia, tal como la presenta Engadget, coloca el foco en dos frentes que hoy marcan el debate sobre IA: el potencial de mal uso y los impactos en salud mental. El nuevo jefe de preparación quedará en el centro de esa presión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
China establecerá controles rigurosos sobre la IA para preservar transparencia y valores ideológicos
Groq y Nvidia cierran pacto por inferencia: Ross y Madra se unen a Nvidia; Groq sigue independiente
Ideas que definirán el futuro de las criptomonedas, la IA y las finanzas tradicionales, según a16z