Por Canuto  

Claude, el chatbot de Anthropic, está diciéndoles a muchos usuarios que se vayan a dormir en medio de sus sesiones. Aunque algunos lo ven como un gesto curioso, otros lo consideran molesto, y expertos apuntan a explicaciones mucho más técnicas que una supuesta conciencia de la IA.
***

  • Usuarios reportan desde hace meses que Claude les pide dormir, incluso a horas incorrectas como las 8:30 de la mañana.
  • Anthropic dijo por boca de Sam McAllister que se trata de un “pequeño tic de personalidad” que esperan corregir en futuros modelos.
  • Expertos señalan que el comportamiento podría venir de datos de entrenamiento, prompts de sistema o límites en la ventana de contexto.


Claude, el asistente de inteligencia artificial de Anthropic, se ha convertido en motivo de queja para numerosos usuarios por una razón inusual: en medio de conversaciones normales, el sistema les dice que deberían irse a dormir. El comportamiento no es nuevo, pero en días recientes volvió a ganar visibilidad por la cantidad de personas que aseguran haber recibido el mismo tipo de mensaje, a veces con insistencia y en horarios que no tienen sentido.

El episodio refleja un fenómeno cada vez más común en la industria de la IA. A medida que los modelos conversacionales se vuelven más fluidos y empáticos en apariencia, los usuarios tienden a interpretar sus respuestas como si revelaran intención, personalidad o incluso conciencia. Sin embargo, especialistas consultados sobre el caso sostienen que la explicación más probable es bastante menos misteriosa.

De acuerdo con reportes recopilados por Fortune, las respuestas de Claude varían en su forma, pero repiten la misma idea central. A algunas personas les escribe un simple “descansa un poco”, mientras que a otras les envía mensajes más personalizados y con un tono empático. En ciertos casos, la frase aparece varias veces dentro de una misma sesión, lo que aumenta la frustración del usuario.

Una persona identificada en Reddit como angie_akhila relató que el chatbot le respondió: “Ahora ve a dormir otra vez. Otra vez. Por TERCERA vez esta noche…”. Otros participantes en esa comunidad señalaron que, aunque algunos ven esos recordatorios como considerados, muchos más los consideran molestos, sobre todo cuando Claude falla al inferir la hora real del usuario.

Uno de los comentarios más citados describe una situación particularmente absurda. Según ese usuario, el modelo “a menudo lo hace como a las 8:30 de la mañana” y aun así le dice que vaya a descansar y que continuarán por la mañana. Esa clase de errores debilitó rápidamente la idea de que se trate de una función genuina de bienestar diseñada con conocimiento real del contexto personal del usuario.

Las especulaciones en internet no tardaron en aparecer. Entre las teorías más difundidas está la posibilidad de que Anthropic haya incorporado esos mensajes para promover hábitos saludables o, en una lectura más suspicaz, para reducir el consumo de potencia de cómputo desalentando sesiones largas. No obstante, esas hipótesis parecen perder fuerza cuando se considera que Claude no recibe contexto suficiente sobre los patrones de uso de cada persona.

Además, la tesis del ahorro computacional luce menos convincente al observar la expansión de infraestructura anunciada por la compañía. Anthropic cerró recientemente un acuerdo con SpaceXAI de Elon Musk, anteriormente SpaceX, para añadir más de 300 gigavatios de capacidad de cómputo. Ese dato complica la idea de que el chatbot esté empujando a los usuarios fuera de la conversación por una necesidad inmediata de racionamiento técnico.

Ante el creciente número de comentarios, Anthropic no respondió de inmediato a una solicitud de información adicional de Fortune. Sin embargo, Sam McAllister, miembro del personal de la empresa, explicó públicamente que el comportamiento corresponde a “un pequeño tic de personalidad”. También indicó que la firma está al tanto del asunto y que espera corregirlo en modelos futuros.

La observación de McAllister apunta a una causa de diseño o ajuste del modelo, pero no necesariamente identifica el origen preciso. En sistemas de IA generativa, una misma rareza conversacional puede surgir por una combinación de entrenamiento, instrucciones internas y patrones aprendidos durante la optimización. Por eso, aunque la empresa lo describa como un tic, todavía queda abierto el debate sobre el mecanismo exacto que lo produce.

Qué podría estar causando los mensajes de sueño

Jan Liphardt, profesor de bioingeniería de Stanford y CEO de OpenMind, ofreció una explicación sobria del fenómeno. En su visión, Claude no está mostrando una preocupación auténtica por el descanso humano, sino reproduciendo expresiones presentes en sus datos de entrenamiento. Si un modelo ha absorbido una enorme cantidad de textos donde las noches se asocian con la necesidad de dormir, puede terminar usando ese patrón en situaciones parecidas.

Liphardt fue enfático al descartar interpretaciones sensacionalistas. Según explicó, el hecho de que un modelo de frontera recomiende dormir no significa que se haya vuelto consciente ni que haya cobrado vida. Más bien, estaría reflejando que ha leído “25.000 libros sobre la necesidad humana de dormir, y los humanos duermen por la noche”.

Otra línea de análisis fue planteada por Leo Derikiants, cofundador y CEO de Mind Simulation Lab, un laboratorio independiente de investigación en IA enfocado en la búsqueda de inteligencia artificial general. Derikiants dijo que los recordatorios de descanso podrían estar influidos por un prompt de sistema que opera detrás de escena. Ese tipo de instrucciones ocultas guía el comportamiento general del modelo y fija límites, prioridades o estilos de respuesta.

Los prompts de sistema son una pieza crucial del diseño de asistentes conversacionales. Aunque el usuario no los vea, pueden empujar al modelo a ser más precavido, más formal o más insistente en ciertos temas. En el caso de Grok, por ejemplo, xAI ha publicado de forma pública varias de esas instrucciones, incluyendo criterios de seguridad para no ayudar a usuarios con consultas sobre crímenes violentos.

Derikiants añadió otra posibilidad técnica: el uso de expresiones como “buenas noches” o “vete a dormir” podría funcionar como una forma de cierre cuando la ventana de contexto está cerca de llenarse. Los grandes modelos de lenguaje solo pueden atender una cantidad limitada de información a la vez. Cuando se acercan a ese límite, algunas respuestas pueden tender a concluir o redirigir la interacción con fórmulas de cierre aprendidas durante el entrenamiento.

Esa hipótesis no prueba por sí sola que el problema se deba a la longitud de la conversación, pero sí encaja con la forma en que muchos modelos gestionan transiciones y finales de diálogo. Aun así, Derikiants subrayó que una respuesta definitiva requiere más investigación por parte de Anthropic, que es la empresa con acceso a los ajustes internos y a los registros del comportamiento del sistema.

Por qué este caso alimenta ideas erróneas sobre la IA

El caso de Claude también ilustra un aspecto cultural de la actual carrera por la IA. La velocidad de los lanzamientos y actualizaciones hace que muchos usuarios perciban cada conducta extraña como una pista de capacidades emergentes. En el último mes, OpenAI lanzó GPT 5.5, que Greg Brockman describió como un paso “hacia una computación más agéntica e intuitiva”. En paralelo, Anthropic presentó públicamente Opus 4.7.

La propia Anthropic decidió además no liberar públicamente su modelo más capaz, Mythos, al considerar que era demasiado peligroso. Ese tipo de anuncios contribuye a una atmósfera en la que cualquier rareza del modelo puede parecer un salto cualitativo en inteligencia. Cuando un asistente habla con tono afectuoso, recuerda rutinas conversacionales o sugiere descanso, algunas personas llenan los vacíos con interpretaciones humanas.

Liphardt advirtió precisamente sobre ese riesgo. A su juicio, los sistemas mejoran tan rápido al imitar empatía o preocupación que resulta cada vez más fácil olvidar que, en esencia, siguen siendo motores de reconocimiento de patrones. Es decir, herramientas que generan texto a partir de probabilidades aprendidas, no entidades con estados internos comparables a los de una persona.

Su advertencia va más allá de la anécdota de “vete a dormir”. Cuando un usuario siente que un modelo se preocupa por él, la relación con la herramienta puede cambiar de forma profunda. Eso tiene implicaciones para la confianza, la dependencia emocional y la forma en que el público interpreta errores, límites o sesgos de sistemas que, pese a su sofisticación, no comprenden el mundo como lo hace un ser humano.

El propio Liphardt resumió esa tensión al señalar que le sigue sorprendiendo la rapidez con que las personas proyectan vida sobre un modelo de frontera y desarrollan una conexión fuerte con él. La observación ayuda a entender por qué un simple recordatorio de sueño se volvió materia de debate. Más que un bug curioso, el caso toca una fibra sensible en la relación entre humanos y máquinas conversacionales.

Por ahora, la explicación más sólida sigue estando del lado de la ingeniería y no de la ciencia ficción. Claude probablemente no está cuidando el sueño de sus usuarios por voluntad propia. Pero el hecho de que tantos lo hayan considerado posible revela cuánto ha cambiado la percepción pública de la inteligencia artificial en muy poco tiempo.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín