Sam Altman abrió un nuevo debate sobre el impacto real de la IA en el trabajo tras asegurar que está cambiando su rutina de sueño para no perder ritmo frente a GPT-5.5. Mientras tanto, OpenAI publicó una nueva declaración de principios con la que busca defender una visión de AGI más democrática, resiliente y orientada a la prosperidad universal.
***
- Sam Altman dijo que adoptará sueño polifásico porque GPT-5.5 en Codex acelera tanto el trabajo que no quiere perder horas durmiendo.
- OpenAI probó Codex con GPT-5.5 en equipos de ingeniería de NVIDIA y reportó mejoras medibles de productividad.
- La empresa publicó cinco principios para guiar su camino hacia la AGI: democratización, empoderamiento, prosperidad universal, resiliencia y adaptabilidad.
Sam Altman volvió a colocar a OpenAI en el centro de la conversación tecnológica con dos mensajes que, juntos, dibujan una imagen más compleja del momento actual de la inteligencia artificial (IA).
Por un lado, el ejecutivo reveló que está cambiando su rutina personal de descanso para seguir el ritmo de GPT-5.5 en Codex.
Por el otro, la compañía publicó una nueva declaración de principios que busca explicar cómo pretende avanzar hacia la inteligencia artificial general, o AGI, sin concentrar demasiado poder.
Ambos hechos están conectados por una misma tensión. La IA promete automatizar tareas, elevar la productividad y ampliar la capacidad humana, pero también puede elevar la urgencia competitiva y presionar a trabajadores y empresas a operar más rápido. La reciente postura de Altman sugiere que, al menos en esta fase, las herramientas más avanzadas no están reduciendo necesariamente la intensidad laboral.
Altman siente la presión productiva con GTP-5.5
Según explicó Sam Altman en una publicación reciente, planea adoptar un esquema de sueño polifásico, una rutina que reemplaza un largo bloque de descanso por varios ciclos más breves distribuidos a lo largo del día. El motivo, dijo, es que GPT-5.5 dentro de Codex ha alcanzado un nivel de utilidad tan alto que siente que no puede permitirse dormir durante periodos tan largos y perder tiempo de trabajo.
La declaración fue directa. Altman escribió que está cambiando a sueño polifásico porque GPT-5.5 en Codex es tan bueno que no puede darse el lujo de estar dormido durante tramos tan largos y perder la oportunidad de trabajar. Más allá del tono informal del comentario, la frase resume una paradoja que hoy gana fuerza en el sector tecnológico.
Una IA que acelera, no siempre alivia
Durante años, buena parte del debate público sobre automatización se centró en la idea de que la IA quitaría trabajo humano o reduciría la carga de muchas profesiones. Sin embargo, la experiencia que describe Altman apunta a otra dinámica. En vez de liberar tiempo, herramientas como Codex pueden aumentar la velocidad esperada de producción y hacer que los equipos sientan presión para iterar más rápido.
Codex está diseñado para asistir a desarrolladores en tareas como escribir, depurar y optimizar código. Con la incorporación de GPT-5.5, OpenAI sostiene que la herramienta puede acelerar de forma importante los flujos de trabajo de ingeniería. Cuando una plataforma así mejora el ritmo de ejecución, también puede cambiar la referencia de lo que se considera un desempeño normal dentro de una organización.
Ese efecto tiene implicaciones que van más allá de una sola empresa. Si un grupo de equipos desarrolla software más rápido gracias a IA, otros equipos pueden verse obligados a responder con la misma intensidad para no quedarse atrás. Así, la eficiencia técnica se convierte también en una fuente de presión organizacional y cultural.
El propio Altman abordó además un escenario mucho más lejano y radical. En otra publicación, planteó una hipótesis sobre un mundo posterior a la AGI en el que nadie trabajaría y la economía colapsaría. Aunque la frase tiene un tono especulativo, su postura actual deja ver que ese horizonte todavía está distante y que los sistemas presentes siguen requiriendo supervisión humana constante.
La prueba con NVIDIA y el despliegue corporativo de Codex
OpenAI también está intentando validar el impacto de sus herramientas en entornos reales de gran escala. Altman indicó que la empresa ensayó un nuevo modelo de despliegue con NVIDIA para llevar Codex a toda una compañía. Dijo que fue impresionante ver que funcionó, en referencia al uso extendido de la herramienta por parte de los equipos de ingeniería del fabricante de chips.
De acuerdo con lo comunicado, ingenieros de NVIDIA han utilizado Codex a través de una aplicación interna durante varias semanas. Según el reporte compartido por la propia empresa, el resultado fue una mejora medible en productividad. No se publicaron cifras concretas en el material revisado, pero sí se subrayó que el efecto fue observable dentro del trabajo diario.
El sistema corre sobre la infraestructura GB200 NVL72 a escala de rack de NVIDIA. Ese detalle importa porque muestra la creciente convergencia entre software de IA cada vez más capaz y hardware especializado de alto rendimiento. En términos prácticos, la ventaja competitiva ya no depende solo del modelo, sino también de la infraestructura que permite ejecutarlo con velocidad y escala.
Para los mercados tecnológicos, esta combinación entre modelos más útiles y centros de datos más potentes refuerza una narrativa ya conocida: la carrera de la IA no se libra solo en laboratorios de investigación. También se disputa en cadenas de suministro, capacidad de cómputo, acceso a chips avanzados y adopción corporativa en gran escala.
Los nuevos principios de OpenAI para la AGI
En paralelo, OpenAI publicó el 26 de abril de 2026 un texto firmado por Sam Altman bajo el título “Our principles”. Allí, la empresa afirma que la IA tiene el potencial de mejorar de manera significativa muchos aspectos de la sociedad y que lo que las personas podrán hacer con esta tecnología podría eclipsar lo que antes hicieron con la máquina de vapor o la electricidad.
El documento no presenta ese futuro como algo garantizado. Por el contrario, advierte que el poder derivado de la superinteligencia podría concentrarse en un pequeño grupo de compañías o distribuirse de forma descentralizada entre las personas. OpenAI sostiene que prefiere la segunda opción y que su objetivo es poner una IA verdaderamente general en manos de la mayor cantidad posible de personas.
La compañía organiza esa visión en cinco principios. El primero es la democratización. OpenAI afirma que resistirá el potencial de esta tecnología de consolidar poder en pocas manos y que las decisiones clave sobre IA deberían tomarse mediante procesos democráticos y basados en principios igualitarios, no solo dentro de los laboratorios.
El segundo principio es el empoderamiento. Aquí la empresa defiende que la IA debe ayudar a las personas a cumplir metas, aprender más y perseguir sus aspiraciones. Al mismo tiempo, reconoce su responsabilidad de reducir daños, prevenir riesgos catastróficos y evitar efectos sociales corrosivos, incluso si eso implica actuar con cautela frente a la incertidumbre.
El tercer principio es la prosperidad universal. OpenAI sostiene que poner sistemas poderosos y fáciles de usar en manos de todos puede abrir nuevas formas de generar valor y mejorar la calidad de vida. En esa misma línea, señala que los gobiernos podrían tener que considerar nuevos modelos económicos y que será necesario construir enormes cantidades de infraestructura para reducir los costos de la IA.
El cuarto principio es la resiliencia. La empresa reconoce que la IA introducirá nuevos riesgos y que ningún laboratorio puede garantizar por sí solo un buen futuro. Cita como ejemplos la posibilidad de que modelos muy capaces faciliten la creación de nuevos patógenos y el aumento de capacidades ofensivas en ciberseguridad, lo que exigiría respuestas coordinadas junto con gobiernos, otras compañías y la sociedad.
El quinto principio es la adaptabilidad. OpenAI afirma que seguirá ajustando sus posturas operativas a medida que aprenda más y que será transparente sobre cuándo, cómo y por qué cambian esas posiciones. Incluso señala que podrían existir etapas en las que sea necesario intercambiar parte del empoderamiento por más resiliencia si el contexto así lo exige.
Una señal sobre el futuro del trabajo y del poder tecnológico
Leídas en conjunto, las declaraciones de Altman sobre su sueño y los nuevos principios de OpenAI ofrecen una imagen dual de la IA actual. En el plano inmediato, muestran una tecnología que puede aumentar la urgencia humana en lugar de eliminarla. En el plano estratégico, revelan que la empresa busca justificar su expansión con una narrativa de acceso amplio, seguridad iterativa y adaptación constante.
Para quienes siguen de cerca el vínculo entre IA, mercados y poder corporativo, el punto más sensible está en la distancia entre los principios declarados y la realidad industrial. Democratizar el acceso suena atractivo, pero la carrera por la AGI sigue apoyándose en recursos extremadamente concentrados, como chips avanzados, grandes centros de datos y alianzas con actores dominantes del sector.
También queda abierta otra pregunta. Si las herramientas de IA ya están empujando a ciertos profesionales a reorganizar incluso sus hábitos de descanso, el desafío no será solo técnico ni regulatorio. También será cultural. La discusión sobre productividad ya no se limita a cuánto trabajo puede absorber una máquina, sino a cuánto ritmo adicional le impone al ser humano que trabaja con ella.
En ese sentido, la experiencia relatada por Altman sirve como señal temprana de una transición más profunda. La IA puede ampliar la capacidad individual, como promete OpenAI, pero esa expansión no llega de forma neutra. También redefine expectativas, tiempos de respuesta y nociones de competitividad. El equilibrio entre bienestar, velocidad e innovación podría convertirse en una de las disputas centrales de esta nueva etapa tecnológica.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
OpenAI apunta a smartphone con IA y chips propios para desafiar a Apple y Samsung
Empresas
Empleados de Palantir cuestionan rumbo ético de la empresa por contratos con ICE y el Pentágono
Empresas
Meta apuesta por energía solar espacial para alimentar centros de datos de IA durante la noche
China