Por Canuto  

Anthropic presentó un nuevo modo automático para Claude Code que busca resolver una de las mayores tensiones del desarrollo asistido por IA: ganar velocidad sin exponer proyectos enteros a comandos destructivos. La función reduce interrupciones, pero mantiene salvaguardas para bloquear acciones de alto riesgo antes de que ocurran.
***

  • El modo automático de Claude Code reduce las solicitudes de permisos durante tareas largas de programación.
  • Un clasificador de IA revisa cada llamada a herramienta para bloquear acciones como borrado masivo, exfiltración de datos o código malicioso.
  • Por ahora, la función está en vista previa de investigación y solo disponible para usuarios del plan Team.

 


Anthropic anunció un nuevo modo automático para Claude Code, su herramienta de programación asistida por inteligencia artificial, con la promesa de reducir interrupciones sin renunciar por completo a las barreras de seguridad. La novedad apunta a un problema muy conocido entre desarrolladores que usan asistentes avanzados: cada permiso adicional protege el sistema, pero también frena el flujo de trabajo.

En términos simples, Claude Code no solo genera fragmentos de software. También puede ejecutar comandos de shell para crear directorios, mover archivos, registrar cambios en GitHub y realizar otras acciones operativas dentro de un proyecto. Esa capacidad lo hace más útil, pero también eleva el riesgo cuando la IA interpreta mal una instrucción o toma una decisión equivocada.

De acuerdo con How Claude Code’s new auto mode prevents AI coding disasters – without slowing you down, publicado por ZDNET, la nueva función fue diseñada como un punto intermedio entre dos extremos: la aprobación manual constante y la opción de omitir todos los permisos. Anthropic sostiene que esa vía intermedia permite ejecutar tareas más largas con menos interrupciones y con menos riesgo que el ajuste llamado dangerously skip permissions.

La compañía explicó que, antes de cada llamada a herramienta, un clasificador revisa la acción para identificar señales de comportamiento potencialmente destructivo. Entre los ejemplos citados figuran la eliminación masiva de archivos, la exfiltración de datos sensibles y la ejecución de código malicioso. Si la operación parece segura, se ejecuta automáticamente. Si no, queda bloqueada y Claude debe intentar otro enfoque.

Por qué los permisos siguen siendo un problema para los desarrolladores

La discusión sobre permisos en herramientas de programación con IA no es menor. Un asistente con acceso al sistema puede acelerar tareas repetitivas y ahorrar horas de trabajo, pero también puede comprometer una base de código completa si actúa sin control. En ambientes reales, ese equilibrio entre autonomía y supervisión se volvió uno de los principales debates de la nueva ola de software generativo.

Claude Code ya contaba con mecanismos de contención. Uno de ellos limita al modelo a una jerarquía de carpetas específica. Eso significa que puede trabajar dentro de un proyecto definido sin tocar otros archivos del equipo o del sistema. Sin embargo, esa restricción no impide que cause daños graves dentro del propio repositorio si modifica o elimina elementos críticos.

Otro mecanismo exige permiso explícito para operaciones que podrían resultar delicadas, sobre todo comandos de shell. Esa capa mejora la seguridad, pero también rompe la experiencia cuando el usuario quiere dejar al agente trabajar durante un período prolongado. En la práctica, muchos desarrolladores se ven obligados a revisar acción por acción en lugar de delegar una sesión completa.

Anthropic ya ofrecía distintos niveles de permisos. Entre ellos figura la opción más agresiva, dangerously skip permissions, que omite las comprobaciones. Aunque puede resultar atractiva para acelerar el trabajo, también implica abrir la puerta a errores severos. La nueva propuesta intenta justamente reducir esa tensión sin empujar al usuario a elegir entre lentitud extrema o autonomía casi total.

Cómo funciona el nuevo modo automático de Claude Code

El modo automático opera con una lógica de clasificación previa a la ejecución. En lugar de pedir autorización humana para cada acción, Claude somete cada llamada a herramienta a una revisión automatizada. Si el clasificador considera que la tarea es segura, la operación sigue su curso. Si detecta algo peligroso, la bloquea antes de que tenga efecto.

Anthropic detalló que, cuando una acción riesgosa es rechazada, Claude intenta resolver el problema por otra vía. Solo si insiste reiteradamente en acciones bloqueadas, el sistema termina elevando una solicitud de permiso al usuario. Esa dinámica busca mantener la continuidad del trabajo, pero sin dejar al agente actuar con carta blanca dentro del entorno de desarrollo.

La empresa encuadra esta función como una vista previa de investigación. En su despliegue inicial, solo está disponible para clientes del plan Team. Según la información difundida, llegará a usuarios del plan Enterprise y a la API en los próximos días. El texto original también destaca que, al momento de su lanzamiento, la característica no está disponible para todos los tipos de suscripción.

La compatibilidad actual se limita a los modelos Sonnet 4.6 y Opus 4.6. Anthropic también advirtió que el modo automático puede generar un pequeño impacto en el consumo de tokens, el costo y la latencia de las llamadas a herramientas. En otras palabras, la función no solo afecta la seguridad y la productividad, sino también la eficiencia operativa y el presupuesto en ciertos casos.

Salvaguardas, límites y riesgos que no desaparecen

Aunque la nueva capa aporta control adicional, Anthropic no presenta el modo automático como una solución infalible. La empresa reconoce que el riesgo se reduce, pero no desaparece. Por eso sigue recomendando con firmeza trabajar en entornos aislados, una práctica habitual en desarrollo profesional cuando se prueban herramientas con permisos amplios o comportamientos no completamente predecibles.

El problema de fondo es que el clasificador también es inteligencia artificial. Como cualquier sistema de este tipo, puede equivocarse con el contexto. Algunas acciones verdaderamente riesgosas podrían pasar el filtro si el modelo no interpreta bien la situación. Del mismo modo, comandos benignos podrían quedar bloqueados de forma ocasional, generando fricción o resultados inconsistentes.

Ese matiz es relevante porque el valor de estas herramientas depende de su capacidad para operar con criterio técnico suficiente. Si el filtro es demasiado estricto, la productividad se resiente. Si es demasiado permisivo, el riesgo de daño aumenta. La función, por tanto, no elimina el juicio humano. Más bien, lo desplaza a un nivel superior, donde el usuario decide cuánto confiar y bajo qué condiciones.

Para muchos equipos, esa arquitectura puede resultar más razonable que un esquema binario. En lugar de revisar todo manualmente o desactivar todos los frenos, el sistema propone una supervisión automatizada de primer nivel. Eso no resuelve el debate sobre autonomía de agentes de IA, pero sí refleja cómo el mercado empieza a moverse hacia modelos con más gradaciones de control.

Disponibilidad inicial y la reacción del autor de la fuente

El autor del artículo original, David Gewirtz, señaló que no puede usar la nueva función por ahora porque se encuentra en el plan Max de Claude, con un costo de USD $100 al mes, y esa suscripción no incluye acceso a esta característica. Aun así, admitió que la insistencia de Claude en revisar permisos puede resultar muy frustrante cuando lo que se busca es delegar trabajo prolongado sin interrupciones constantes.

Gewirtz también comentó que realiza copias de seguridad frecuentes de su máquina, lo que le permitiría recuperar el proyecto si una función como el modo automático o dangerously skip permissions llegara a dañar el código. A partir de esa experiencia, sugirió que quienes usen herramientas de este tipo podrían adoptar hábitos adicionales, como crear archivos ZIP de directorios y ejecutar respaldos extra antes de dejar actuar libremente a la IA.

Desde su perspectiva, el nuevo modo automático parece preferible a la opción completamente abierta. La razón es sencilla: mantiene algo de productividad adicional, pero deja ciertas barreras en su lugar. Esa valoración resume bien el posicionamiento de la función. No se presenta como libertad total, sino como una autonomía controlada para flujos de trabajo donde cada interrupción tiene un costo.

También observó que Claude Code tiene apenas alrededor de un año de vida y, aun así, ya transformó de forma importante el mundo de la programación. Bajo esa lectura, el modo automático podría integrarse con el tiempo al conjunto habitual de herramientas de desarrollo, siempre que madure y mejore su capacidad para discernir entre operaciones seguras y acciones realmente destructivas.

Un paso más en la carrera por agentes de software más autónomos

El anuncio de Anthropic encaja en una tendencia mayor dentro del sector tecnológico. Los asistentes de programación avanzan desde el autocompletado y la generación de funciones hacia agentes capaces de operar sobre archivos, terminales y repositorios completos. Esa evolución promete una productividad mucho más alta, pero también vuelve más delicado el diseño de controles, auditorías y límites de ejecución.

En este contexto, el modo automático de Claude Code no solo es una mejora de producto. También funciona como experimento sobre cómo delegar decisiones operativas a sistemas de IA sin resignar del todo la seguridad. El desafío es especialmente importante en desarrollo de software, donde una acción errónea puede romper aplicaciones, exponer secretos o eliminar semanas de trabajo en pocos segundos.

Por ahora, la propuesta de Anthropic parece apostar por un principio práctico: automatizar lo rutinario, elevar lo dudoso y frenar lo claramente peligroso. Queda por ver qué tan bien funcionará en escenarios complejos y si los falsos positivos o falsos negativos se mantendrán en niveles tolerables para equipos profesionales. Esa será la verdadera prueba cuando la función se expanda más allá del plan Team.

Lo concreto es que Anthropic ya reconoce un hecho central del mercado de IA para desarrolladores: la velocidad por sí sola no basta. Para que un agente de programación sea realmente útil a escala, debe combinar autonomía con mecanismos de contención creíbles. El nuevo modo automático de Claude Code es un intento de avanzar en esa dirección, aunque todavía con límites claros y bajo una advertencia importante: el riesgo no ha desaparecido.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín