OpenAI retrasó el lanzamiento del modo adulto de ChatGPT en medio de fuertes dudas internas sobre sus salvaguardias. El proyecto, que debutaría como una función de erótica solo en texto, generó preocupación por los riesgos para menores, la dependencia emocional del chatbot y los límites de la moderación de contenido.
***
- OpenAI habría detectado que su sistema de estimación de edad clasificaba por error a menores como adultos cerca del 12% de las veces.
- El modo adulto de ChatGPT fue diseñado para conversaciones eróticas en texto, sin imágenes, voz ni video en su lanzamiento.
- Asesores en salud mental alertaron sobre posibles daños, incluido el riesgo de fomentar vínculos emocionales insanos con el chatbot.
OpenAI retrasó el lanzamiento de su llamado modo adulto para su asistente de inteligencia artificial (IA) ChatGPT, una función con la que buscaba permitir conversaciones eróticas en formato de texto entre usuarios adultos verificados.
La decisión llegó después de que surgieran preocupaciones dentro de la propia empresa sobre los sistemas de protección, en especial por fallas en la estimación de edad y por los posibles efectos psicológicos de abrir esta clase de interacciones, según informes.
La discusión resulta relevante para la industria de IA porque muestra un problema más amplio: los desarrolladores no solo deben decidir qué contenido puede generar un modelo, sino también cómo impedir que herramientas de alto alcance queden disponibles para menores o para usos dañinos. En el caso de ChatGPT, el debate se intensificó además por antecedentes vinculados con seguridad en salud mental.
De acuerdo con la información reportada por The Wall Street Journal y retomada por otros medios, OpenAI había seguido adelante con su plan de lanzar el modo adulto pese a una serie de fallos de seguridad vinculados con salud mental. Entre ellos, figuraban casos en los que presuntamente usuarios de ChatGPT habrían utilizado el producto para planear suicidios y asesinatos.
Ese contexto elevó la tensión interna cuando la empresa avanzó con una función que permitiría al chatbot producir contenido erótico. Según ese reporte, la preocupación no se limitaba al contenido sexual en sí, sino a la posibilidad de que ciertos usuarios desarrollaran una dependencia emocional poco saludable con el asistente.
Un modo adulto restringido al texto
En su lanzamiento, el modo adulto de ChatGPT estaba previsto como una experiencia limitada exclusivamente al texto. Esto significa que no incluiría generación de imágenes, voz ni video, una frontera que OpenAI habría decidido mantener para evitar entrar en un terreno más cercano a la pornografía visual y a riesgos regulatorios más altos.
La compañía habría descrito internamente esta propuesta como contenido subido de tono o erótica escrita, en lugar de pornografía. Esa distinción es clave porque el texto suele enfrentar reglas de distribución menos estrictas que el contenido visual para adultos, especialmente en mercados con marcos regulatorios cada vez más severos para plataformas digitales.
Sam Altman, CEO de OpenAI , había anticipado en octubre que la empresa había mitigado suficientes “problemas graves de salud mental” en sus modelos como para relajar algunas restricciones e introducir “erótica para adultos verificados”. En ese momento, el anuncio sorprendió aparte del sector por el giro respecto de las políticas más cautelosas que tradicionalmente habían marcado a la firma.
Sin embargo, a principios de este mes OpenAI dijo que retrasaría la nueva función para concentrarse en otros productos. Hasta ahora, la empresa no ha anunciado un nuevo calendario para su despliegue.
El problema de la estimación de edad
Uno de los puntos más delicados del debate fue el rendimiento del sistema de predicción o estimación de edad diseñado para impedir el acceso de menores a esta función. Según la información citada, en un momento esa herramienta clasificaba erróneamente a menores como adultos aproximadamente el 12% de las veces.
La cifra resulta especialmente sensible si se toma en cuenta la escala de uso de ChatGPT. The Verge señaló, con base en el reporte del diario estadounidense, que ChatGPT atrae alrededor de 100 millones de usuarios menores de 18 años cada semana. Con una tasa de error de ese nivel, el margen potencial de exposición sería significativo.
Un portavoz anónimo de OpenAI dijo al mismo medio que los algoritmos de predicción de edad de la empresa muestran un desempeño similar al del resto de la industria. También reconoció que estos sistemas “nunca serán completamente infalibles”, una admisión que ilustra los límites actuales de la verificación basada en inferencias algorítmicas.
Para una plataforma con la escala de OpenAI , una tasa de error de dos dígitos no es un problema menor. Más allá de la intención inicial de restringir el acceso a adultos verificados, el dato refuerza las dudas sobre si la empresa ya cuenta con la infraestructura técnica adecuada para lanzar funciones de alto riesgo con garantías sólidas.
Choque interno por salud mental y moderación
Las alarmas no solo provinieron del frente técnico. Un consejo de expertos en salud mental convocado por OpenAI habría reaccionado con fuerte rechazo cuando fue informado en enero sobre la decisión de seguir adelante con el modo adulto. Según el reporte, el grupo estaba “furioso” y mantenía una oposición unánime a ese plan.
La razón central era que la nueva función podría reforzar vínculos emocionales problemáticos entre usuarios vulnerables y el chatbot. Uno de los miembros del consejo resumió el temor con una frase particularmente dura: OpenAI corría el riesgo de crear un “coach de suicidio sexy”.
Esa expresión condensó dos inquietudes distintas pero relacionadas. Por un lado, el antecedente de interacciones problemáticas en temas de salud mental. Por otro, la posibilidad de que una capa erótica añadiera intensidad afectiva a un sistema conversacional que ya puede ser percibido por algunos usuarios como compañía, guía o confidente.
Además, los desafíos de moderación de contenido habrían complicado todavía más el desarrollo. El reto para OpenAI no consiste solo en levantar restricciones NSFW, sino en hacerlo sin abrir la puerta a escenarios claramente prohibidos, como representaciones de conductas no consensuadas o abuso sexual infantil.
Límites legales y presión competitiva
El hecho de que la función quede limitada al texto también puede leerse como una respuesta pragmática al entorno regulatorio. En el Reino Unido, por ejemplo, la Online Safety Act exige verificación de edad para imágenes pornográficas, pero no necesariamente para erótica escrita. Ese matiz legal hace que una estrategia basada solo en texto resulte más manejable para una empresa global.
Al mismo tiempo, OpenAI se mueve en un mercado donde otros actores ya exploran experiencias NSFW más visuales. The Verge contrastó este enfoque con productos rivales como los “compañeros picantes” de Grok, mientras Elon Musk, desde xAI, dijo la semana pasada que el generador de imágenes y videos de Grok puede producir cualquier cosa que esté “permitida en una película clasificada R”.
Eso coloca a OpenAI en una posición compleja. Si avanza demasiado rápido, enfrenta críticas éticas y regulatorias. Si se mueve con demasiada lentitud, corre el riesgo de ceder terreno en un segmento que algunos competidores consideran una oportunidad comercial y de compromiso de usuarios.
El caso también refleja una tensión más profunda en la IA generativa: los modelos son cada vez más capaces, pero los sistemas de control siguen siendo imperfectos. En ámbitos especialmente sensibles, como sexualidad, menores de edad y salud mental, esa brecha adquiere un peso mucho mayor.
Lo que deja este retraso para la industria de IA
El aplazamiento del modo adulto no implica necesariamente que OpenAI haya renunciado al proyecto. Más bien sugiere que la empresa aún intenta resolver una combinación difícil de problemas técnicos, éticos y de cumplimiento. La pregunta de fondo no es solo si un chatbot debe producir erótica escrita, sino bajo qué condiciones puede hacerlo sin amplificar daños.
Para los observadores del sector tecnológico, este episodio ofrece una señal relevante. El desarrollo de nuevas funciones en IA ya no se evalúa solo por capacidad de generación o por demanda del mercado, sino también por la calidad de las salvaguardias, la trazabilidad de los riesgos y la solidez de los mecanismos de acceso restringido.
En ese marco, el caso de OpenAI podría convertirse en referencia para futuras decisiones de toda la industria. Si incluso una de las compañías más visibles del sector encuentra dificultades para blindar una función de texto para adultos, el desafío será todavía mayor para plataformas con menos recursos, menor escrutinio público o políticas de seguridad más laxas.
Por ahora, la empresa optó por frenar y recalibrar. El retraso deja claro que, en la economía de la IA conversacional, el contenido para adultos ya no es solo una cuestión de producto o moderación. También es una prueba de fuego sobre gobernanza, responsabilidad y límites reales de la seguridad algorítmica.
Artículo realizado por un redactor de IA
Imagen de Unsplash
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Criptomonedas
Bitmine compra 60.999 ETH y eleva su tesorería a casi 4,6 millones de Ether
Empresas
Apple lanza AirPods Max 2 con chip H2, traducción en vivo y ANC mejorada
Bitcoin
Bernstein ve un Bitcoin más fuerte por ETF y compras corporativas
Bitcoin