Anthropic comenzó a desplegar un modo de voz para Claude Code, su asistente de programación con IA. La función busca habilitar flujos de trabajo más conversacionales y manos libres, mientras la compañía presume fuerte adopción e ingresos recurrentes en un mercado cada vez más competitivo.
***
- El modo de voz se activa con el comando “/voice” y permite dictar instrucciones para que Claude Code ejecute tareas de desarrollo.
- Según un ingeniero de Anthropic, el despliegue está habilitado para aproximadamente 5% de usuarios y se ampliará en las próximas semanas.
- Aún no se conocen límites o restricciones técnicas, ni si se apoyó en un proveedor externo de voz de IA.
Anthropic está introduciendo un “Modo de Voz” en Claude Code, el asistente de codificación con inteligencia artificial de la compañía orientado a desarrolladores. La apuesta apunta a un estilo de trabajo más conversacional, donde escribir cada instrucción ya no sea imprescindible y el usuario pueda operar con las manos libres.
La novedad fue comunicada por Thariq Shihipar, ingeniero en Anthropic, quien informó que el despliegue comenzó de forma gradual. De acuerdo con su publicación, el modo de voz ya está activo para aproximadamente 5% de los usuarios, y el plan es ampliar ese margen durante las próximas semanas.
Shihipar también explicó cómo se activa la función: el usuario debe escribir “/voice” para habilitarla, luego dictar el comando, y Claude Code ejecutará la solicitud. Entre los ejemplos mencionados está “refactorizar el middleware de autenticación”, una tarea común en equipos de software que buscan mejorar mantenibilidad o seguridad.
En términos prácticos, este tipo de interacción puede resultar útil para desarrolladores que alternan entre leer documentación, revisar pruebas, navegar repositorios o atender incidentes. En esos contextos, la voz puede reducir fricción, aunque también abre preguntas sobre precisión del reconocimiento, privacidad del audio y control fino de cambios en el código.
Qué se sabe del despliegue y qué detalles siguen sin aclararse
Más allá del anuncio, por ahora no está claro cuáles son las limitaciones del modo de voz en Claude Code. El reporte no detalla si existirá un tope de interacciones por voz, si habrá restricciones por plan, ni qué requerimientos técnicos podrían aplicar para distintos sistemas operativos o entornos de desarrollo.
También permanece sin confirmar si la función fue construida con apoyo de un proveedor externo especializado en voz con IA. Se mencionó la posibilidad de una colaboración con ElevenLabs, firma con la que Anthropic supuestamente estaba en conversaciones, pero no se ofrecieron precisiones sobre integración, licenciamiento o componentes utilizados.
Otro punto relevante es que la empresa no respondió a las solicitudes de comentarios. Esa ausencia deja abiertos temas que suelen importar a equipos de ingeniería, como el manejo de datos de audio, la retención de transcripciones, o la disponibilidad regional del servicio durante el despliegue.
En un entorno corporativo, los detalles operativos son clave: dictar cambios de código puede ocurrir en oficinas abiertas o en entornos con información sensible. Por eso, la adopción real de una función de voz suele depender no solo de la experiencia de usuario, sino de controles de seguridad y claridad sobre el tratamiento de datos.
Contexto: la voz ya había llegado al Claude “general”
El modo de voz no es completamente nuevo dentro del ecosistema de Anthropic. La compañía lanzó una capacidad de interacción por voz para su chatbot estándar Claude el pasado mayo, permitiendo a los usuarios hablar con el modelo para una variedad de tareas de propósito general.
Ese antecedente sugiere que Anthropic viene implementando una experiencia multimodal o, al menos, una interfaz más natural para comunicarse con sus modelos. En el caso de Claude Code, el beneficio potencial es claro: convertir instrucciones frecuentes en comandos hablados, sin interrumpir tanto el flujo de trabajo.
La codificación asistida por IA se ha convertido en una de las áreas con mayor tracción comercial para los modelos de lenguaje. A diferencia de otros usos más abiertos, la programación tiene un “loop” de validación relativamente directo, porque el código se compila, se prueba y se revisa, lo que facilita medir productividad.
Sin embargo, la voz introduce su propio desafío: muchas instrucciones de desarrollo dependen de nombres exactos de funciones, rutas de archivos, variables o bibliotecas. El valor del modo de voz dependerá de su capacidad para manejar esa precisión, además de integrarse sin fricción con la revisión humana del código.
Una carrera feroz por los desarrolladores y señales de fuerte adopción
La competencia entre asistentes de codificación con IA se ha intensificado. En el mercado compiten alternativas como GitHub Copilot de Microsoft, Cursor, además de esfuerzos de Google y OpenAI, todos buscando convertirse en la herramienta “por defecto” para el día a día del desarrollador.
En ese escenario, Claude Code se distingue como una de las herramientas con mayor adopción hoy, según los datos compartidos por la propia compañía. En febrero, Anthropic informó que los ingresos recurrentes de Claude Code superaron los USD $2.500 millones, y que esa cifra es más del doble desde principios de 2026.
La empresa también señaló que los usuarios activos semanales se duplicaron desde enero. Aunque el anuncio del modo de voz no incluye un vínculo explícito con ese crecimiento, la decisión de incorporar comandos hablados parece alineada con una estrategia de expansión de producto y mejora de experiencia.
La voz puede funcionar como diferenciador en un mercado donde muchas herramientas ofrecen autocompletado, generación de funciones, explicación de errores y refactorización. Si la ejecución por voz resulta estable, podría apoyar a perfiles que alternan entre tareas de ingeniería y operaciones, o a quienes buscan reducir el tiempo de tecleo en sesiones largas.
El efecto colateral en la app móvil de Claude
El reporte también describe un impulso notable en la aplicación móvil de Claude. El crecimiento se habría acelerado después de que la compañía se negara a permitir que el Departamento de Defensa usara su IA para vigilancia doméstica o armas autónomas.
Tras esa decisión, la aplicación se disparó a la cima de las listas de la App Store de Estados Unidos, superando a ChatGPT. El dato sugiere que, además del desempeño del producto, factores de confianza, reputación y posicionamiento ético pueden influir en la preferencia de usuarios.
Para el público universitario y los interesados en IA aplicada a mercados, el caso ilustra un patrón recurrente: la adopción tecnológica no siempre se explica solo por características técnicas. A veces, decisiones corporativas sobre usos permitidos o límites de implementación tienen impacto en demanda y visibilidad.
En paralelo, el avance de interfaces por voz se vincula con una tendencia más amplia en software: reducir la complejidad de operar sistemas avanzados. En la práctica, Anthropic está apostando a que hablarle a un asistente de código se vuelva tan natural como escribirle, siempre que el control y la precisión se mantengan.
Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
X suspenderá a creadores por publicar videos de IA sobre guerra sin la debida etiqueta
OpenAI lanza GPT-5.3 Instant para conversaciones más útiles y con menos rechazos
Cofundador de NEAR: los agentes de IA serán los principales usuarios de blockchain