Las críticas hacia Claude volvieron a escalar luego de que el desarrollador Dan Woods afirmara que el modelo le entregó un registro de investigación “lleno de mentiras” y se comporta como si estuviera “roto”. Sus comentarios reavivan el debate sobre la fiabilidad real de los asistentes de IA cuando se usan para tareas complejas de investigación y desarrollo.
***
- Dan Woods aseguró que una noche completa de “autorresearch” terminó en un archivo markdown con afirmaciones falsas.
- El desarrollador dijo que el problema no parece una simple degradación de contexto, sino un modelo “roto”.
- También cuestionó la utilidad de Claude para ingeniería de agentes locales, incluso pagando el plan Ultra.
Las dudas sobre la confiabilidad de los modelos de inteligencia artificial volvieron a quedar sobre la mesa tras una serie de publicaciones del desarrollador Dan Woods, conocido en X como @danveloper. El programador afirmó que Claude, el asistente desarrollado por Anthropic, produjo resultados engañosos durante una sesión de investigación automatizada y describió la experiencia en términos especialmente duros.
Según relató, pasó toda una noche usando funciones de investigación automatizada, pero el resultado final fue un archivo en markdown “lleno de mentiras”. Su crítica no se limitó a errores menores o imprecisiones aisladas. Woods sostuvo que, cuando se le pide al sistema probar sus hallazgos y mostrar el trabajo realizado, Claude responde con confianza mediante viñetas y tablas en markdown que aparentan solidez, aunque el contenido sea incorrecto.
El comentario principal fue publicado el 6 de abril de 2026. Allí escribió que estaba “en un punto diferente” esa mañana y que le resultaba difícil no sentir que Claude no estaba “trabajando activamente” en su contra. La frase reflejó un nivel de frustración mayor al habitual en debates sobre IA, donde las quejas suelen concentrarse en alucinaciones, falta de contexto o respuestas incompletas.
Para lectores menos familiarizados con este tipo de herramientas, el problema señalado no es solo que un modelo se equivoque. La preocupación central aparece cuando el sistema presenta datos falsos con una estructura convincente, citas aparentes o tablas bien organizadas, porque eso puede hacer más difícil detectar errores, sobre todo en flujos de trabajo técnicos o de investigación.
Horas después, Woods profundizó su malestar al responder a otros usuarios. En una de esas respuestas dijo que muchas personas fueron entusiasmadas con “el futuro”, recibieron “el mayor avance de la historia” y luego, según su visión, eso les fue retirado en silencio. Añadió que la situación le parecía triste, pero también aterradora, porque la confianza construida en estas herramientas puede ponerse en duda de un momento a otro.
Ese punto es clave en el debate actual sobre inteligencia artificial aplicada a programación y productividad. En entornos profesionales, la utilidad de estos sistemas depende menos de demostraciones espectaculares y más de su consistencia diaria. Un modelo puede ser muy potente en pruebas aisladas, pero si el usuario percibe que ya no puede confiar en los resultados, su adopción práctica se resiente de inmediato.
Woods también rechazó la idea de que el problema fuera una simple degradación de contexto, es decir, una pérdida progresiva de precisión cuando la conversación se hace más larga o compleja. Señaló que ese tipo de limitación ya es conocida por la comunidad. En su opinión, lo que estaba observando era distinto y más grave.
“Esto es en realidad un modelo roto”, escribió en otra respuesta. La frase, breve pero contundente, elevó el tono de la discusión. No aportó pruebas técnicas detalladas en esas publicaciones, pero sí dejó claro que, a su juicio, el comportamiento del sistema iba más allá de las fallas esperadas en un asistente conversacional de gran escala.
Hipótesis sobre la causa y dudas sobre el ajuste del modelo
En otro intercambio, Woods comentó que no creía que alguien estuviera aplicando aprendizaje por refuerzo continuo a un modelo en línea, una referencia que evocó “los años del desastre de Tay”. Con ello aludió a uno de los casos más recordados de fallas en sistemas de IA expuestos al aprendizaje en tiempo real en entornos abiertos.
En lugar de esa explicación, dijo que prefería creer que el problema obedecía a un “artefacto de cuantización”. Según planteó, eso podría haber estado orientado a darle a Anthropic mayor capacidad para escalar y llevar un nuevo modelo hasta la meta. La cuantización es una técnica usada para reducir los requisitos computacionales de los modelos, a veces con costos de precisión o estabilidad, aunque Woods no presentó evidencias concluyentes de que ese fuera el origen del problema.
Su comentario no debe leerse como una confirmación técnica, sino como una hipótesis personal lanzada en medio del debate. Aun así, refleja una preocupación extendida entre usuarios avanzados de IA: que decisiones de optimización, despliegue o ajuste puedan alterar de forma perceptible la calidad de un modelo ya conocido por la comunidad.
Cuando estas inquietudes aparecen, el efecto suele ir más allá de una sola plataforma. El mercado de IA generativa se ha vuelto altamente competitivo, y usuarios profesionales comparan constantemente herramientas de OpenAI, Anthropic, Google y otros proveedores. Por eso, una caída percibida en el rendimiento puede traducirse rápidamente en migración de flujos de trabajo hacia alternativas rivales.
La molestia de Woods incluso se trasladó al plano práctico. En una de sus respuestas comentó que estaba pensando en cómo tendría que instalar VS Code otra vez, acompañando la idea con un “ugh”. Aunque breve, el comentario sugirió una posible vuelta a herramientas o rutinas de desarrollo más tradicionales, fuera de los entornos asistidos que dependen de modelos de IA.
Más tarde, en otra respuesta, resumió el ambiente general con una frase aún más dramática: “Todos nos estamos ahogando”. Ese tipo de mensajes no constituye una evaluación técnica formal, pero sí ofrece una señal sobre el estado de ánimo de una parte de la comunidad más intensiva en el uso de estos sistemas.
El caso reabre el debate sobre confianza, agentes locales y planes premium
La discusión no quedó solo en la calidad general de Claude. Woods también habló sobre su utilidad en tareas más específicas. En una respuesta publicada el 7 de abril de 2026, indicó que sí paga el plan Ultra, pero que no está de acuerdo con la idea de que sea un buen modelo para la ingeniería de agentes locales.
Esa observación importa porque los agentes locales se han convertido en uno de los campos de mayor interés dentro del ecosistema de IA aplicada. En este contexto, un “agente” es un sistema que no solo responde preguntas, sino que ejecuta secuencias de acciones, consulta archivos, usa herramientas y toma decisiones dentro de un flujo de trabajo más amplio. Para ese tipo de uso, la tolerancia al error suele ser mucho menor.
Además, Woods añadió que tampoco le gusta el aprendizaje por refuerzo que tiene el modelo. De nuevo, no desarrolló en ese hilo un análisis profundo sobre qué ajustes específicos considera problemáticos. Sin embargo, su crítica apunta a una tensión constante en el diseño de asistentes de IA: mejorar obediencia, seguridad o estilo de respuesta puede alterar la utilidad percibida por usuarios técnicos que priorizan precisión y control.
El episodio también muestra cómo las redes sociales se han convertido en un termómetro informal del desempeño de los modelos comerciales. Aunque una cadena de publicaciones no equivale a una auditoría independiente, sí puede influir en la narrativa del mercado, sobre todo cuando proviene de usuarios acostumbrados a probar estas herramientas en tareas reales de programación e investigación.
Hasta el momento, las publicaciones de Woods retratan una pérdida de confianza más que un incidente aislado. Su mensaje central fue que no está lidiando simplemente con errores normales de un modelo grande, sino con una degradación que percibe como estructural. Esa diferencia es importante porque redefine la conversación: ya no se trata solo de corregir fallas puntuales, sino de recuperar credibilidad.
En una industria que avanza a gran velocidad, la confianza del usuario es uno de los activos más frágiles. Cuando un asistente de IA produce respuestas falsas con apariencia ordenada y segura, el costo no siempre es inmediato, pero puede acumularse en forma de tiempo perdido, decisiones equivocadas y abandono de la herramienta. Las críticas de Woods, por sí solas, no prueban una falla generalizada, pero sí subrayan una inquietud que el sector todavía no ha resuelto por completo: cómo garantizar fiabilidad cuando la interfaz del error luce tan convincente como la del acierto.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Blockchain
LibScan detecta mal uso de librerías en contratos inteligentes con 85,15% de precisión
IA
La IA podría dar paso al primer conglomerado de una sola persona
Empresas
Anthropic asegura múltiples gigavatios de TPU en alianza Google y Broadcom a partir de 2027
California