Anthropic presentó un nuevo modo automático para Claude Code que busca resolver uno de los mayores dilemas del desarrollo asistido por IA: cómo ganar velocidad sin dejar la puerta abierta a comandos destructivos. La función, por ahora en vista previa de investigación para clientes Team, incorpora un clasificador que revisa cada llamada a herramientas antes de permitirla o bloquearla.
***
- El modo automático de Claude Code reduce las solicitudes de permiso durante tareas largas de programación.
- Un clasificador de IA bloquea acciones potencialmente destructivas como borrado masivo, exfiltración de datos o ejecución maliciosa.
- Anthropic lo plantea como un punto medio entre la supervisión manual constante y la opción dangerously skip permissions.
Anthropic anunció un nuevo modo automático para Claude Code, su asistente de programación con capacidades para escribir código y ejecutar comandos de shell. La propuesta intenta resolver una fricción muy conocida entre desarrolladores: la pérdida de productividad causada por pedir permisos de forma constante, sin caer por completo en un esquema de autonomía total que pueda terminar dañando un proyecto.
La novedad fue reportada por ZDNET, donde se detalla que la herramienta revisa automáticamente cada llamada a herramientas mediante un clasificador de IA. Si la acción parece segura, continúa sin interrupciones. Si luce riesgosa, se bloquea o termina generando una solicitud de permiso al usuario.
En términos simples, Anthropic está tratando de crear una capa intermedia entre dos extremos. Por un lado, un modelo que debe pedir autorización para casi todo. Por el otro, una IA con libertad casi total para alterar archivos, directorios y otros recursos del entorno de trabajo. Ese equilibrio importa cada vez más, ahora que los asistentes de código ya no solo sugieren funciones, sino que también interactúan con terminales, repositorios y sistemas de archivos.
Claude Code ha ganado atención precisamente por esa capacidad ampliada. No se limita a generar bloques de código. También puede crear carpetas, mover archivos, registrar actualizaciones en GitHub y ejecutar comandos que, si se usan mal, pueden borrar directorios completos. Esa potencia aumenta el atractivo de la herramienta, pero también multiplica los riesgos operativos.
Qué cambia con el modo automático
Según explicó Anthropic, el modo automático es una “vía intermedia” para ejecutar tareas largas con menos interrupciones y con menos riesgo que la opción llamada dangerously skip permissions. Ese ajuste más agresivo, ya disponible en Claude Code, omite las comprobaciones tradicionales de permisos y da al modelo mucha más libertad para operar durante sesiones extensas.
La nueva alternativa revisa cada llamada a herramienta antes de ejecutarla. El clasificador busca señales de acciones potencialmente destructivas, entre ellas la eliminación masiva de archivos, la exfiltración de datos sensibles y la ejecución de código malicioso. Si considera que una acción es segura, deja que avance. Si la detecta como peligrosa, la bloquea y empuja al sistema a intentar otra vía para completar la tarea.
Cuando Claude insiste repetidamente en operaciones que continúan siendo bloqueadas, el flujo ya no sigue en automático de forma indefinida. En ese punto, el sistema acaba elevando la situación al usuario mediante una solicitud de permiso. De esa manera, Anthropic intenta reducir los falsos movimientos sin convertir cada sesión en una cadena interminable de aprobaciones manuales.
Esta lógica introduce una diferencia importante frente a los controles tradicionales. Antes, la protección dependía más del consentimiento expreso del usuario para cada acción sensible. Ahora, una parte de ese filtro queda delegada a otro modelo o clasificador de IA. Eso mejora la fluidez del trabajo, pero también reubica el problema de confianza: ya no se trata solo de confiar en el agente principal, sino en la calidad del sistema que lo vigila.
Los riesgos no desaparecen
Anthropic no plantea la función como una solución definitiva. La empresa reconoce que el riesgo disminuye, pero no se elimina. Por eso mantiene su recomendación de trabajar en entornos aislados, una práctica habitual en desarrollo cuando se prueban herramientas con acceso operativo a archivos, terminales o integraciones externas.
Ese detalle es central para entender el alcance real de la novedad. Aunque Claude Code puede estar restringido a una jerarquía de carpetas específica, como un directorio de proyectos, eso no impide que una mala decisión afecte una base de código completa dentro de ese espacio. El problema no siempre es un desastre a nivel del sistema operativo. A veces basta con perder semanas o meses de trabajo en un repositorio crítico.
ZDNET recoge además una observación práctica del autor David Gewirtz: incluso con limitaciones de acceso fuera de la carpeta autorizada, Claude Code ya le había dañado una base de código. Ese antecedente explica por qué la conversación sobre permisos no es teórica. La promesa de mayor autonomía puede resultar tentadora, pero también activa miedos muy concretos entre quienes ya han visto a una IA actuar con exceso de confianza.
La propia empresa admite que el clasificador puede equivocarse. Algunas acciones realmente riesgosas podrían pasar si la IA interpreta mal el contexto. Del mismo modo, acciones benignas podrían quedar bloqueadas de forma ocasional. Ese margen de error no es menor, sobre todo en ambientes donde un comando de shell aparentemente inocente puede tener consecuencias serias dependiendo de la ruta, los privilegios o el estado del proyecto.
Disponibilidad, modelos compatibles y costos
Por ahora, el modo automático se ofrece como una vista previa de investigación y solo está disponible para usuarios del plan Team. Anthropic indicó que la función llegará a usuarios del plan Enterprise y de la API en “los próximos días”. Eso deja fuera, al menos en esta etapa inicial, a otros tipos de suscriptores que ya usan Claude Code en su flujo diario.
El reporte de ZDNET subraya un punto llamativo: el propio autor no puede probarlo todavía porque usa el plan Max de Claude, con un costo de USD $100 al mes, y esa modalidad no tiene acceso a la función en este momento. Aun así, afirmó que probablemente preferiría esta opción intermedia antes que activar el modo completamente abierto de dangerously skip permissions.
En cuanto a compatibilidad, el modo automático funciona con los modelos Sonnet 4.6 y Opus 4.6. Anthropic también advirtió que la función puede tener un pequeño impacto en el consumo de tokens, en el costo y en la latencia de las llamadas a herramientas. En otras palabras, la capa adicional de supervisión no es gratis, ni en términos económicos ni en tiempo de respuesta.
Ese costo adicional refleja una tendencia más amplia en IA aplicada al software. A medida que los agentes ganan autonomía, también crece la necesidad de sistemas secundarios de control, auditoría y validación. En muchos casos, la eficiencia total ya no depende solo de cuántas tareas puede hacer el modelo principal, sino de cuánto cuesta mantenerlo dentro de límites aceptables.
El dilema de fondo para los desarrolladores
La tensión que Anthropic intenta resolver no es menor. Si el asistente pide permiso para cada comando, la productividad se resiente y las tareas largas se vuelven tediosas. Si se eliminan todas las barreras, el usuario gana velocidad, pero también asume la posibilidad de un error grave. En desarrollo, esa clase de error puede traducirse en pérdida de archivos, corrupción de repositorios o exposición accidental de información sensible.
Por eso, algunos desarrolladores recurren a medidas defensivas antes de soltar a un agente sobre su código. El artículo señala hábitos como crear archivos ZIP de directorios o ejecutar copias de seguridad adicionales antes de habilitar funciones más autónomas. No es una solución elegante, pero sí una señal clara de cómo se está adaptando el oficio a herramientas capaces de actuar más allá del autocompletado tradicional.
También hay una lectura más amplia para el ecosistema tecnológico. El avance de asistentes como Claude Code se parece a lo que ocurre en otras áreas de IA generativa: la discusión ya no gira solo en torno a si el modelo produce buenos resultados, sino a bajo qué régimen de control puede operar en sistemas reales. En ese sentido, el modo automático es menos una función aislada y más una prueba sobre cómo debería verse la autonomía controlada en software.
David Gewirtz plantea que este enfoque probablemente mejorará con el tiempo. Claude Code, recuerda, apenas tiene alrededor de un año en el mercado y ya ha cambiado de manera importante el mundo de la programación. Desde esa perspectiva, el nuevo modo automático parece un paso evolutivo natural: no elimina las barandillas, pero intenta hacerlas menos intrusivas para que el flujo de trabajo siga siendo competitivo.
Si esa apuesta funciona, Anthropic podría acercarse a una fórmula valiosa para empresas y equipos técnicos. Menos interrupciones, más autonomía y una capa de vigilancia algorítmica suficiente para evitar desastres obvios. Si falla, en cambio, volverá a quedar claro que delegar operaciones sensibles a una IA sigue siendo una promesa poderosa, aunque todavía imperfecta.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
OpenAI publica herramientas abiertas para reforzar la seguridad de adolescentes en apps de IA
Estados Unidos
Baltimore demanda a xAI por deepfakes sexuales creados con Grok
Empresas
OpenAI rediseña compras en ChatGPT tras el tropiezo de Instant Checkout
Empresas