Por Canuto  

OpenAI estaría reorganizando internamente sus equipos para transformar su tecnología de voz, con la mira puesta en un dispositivo personal centrado en audio que llegaría en cerca de un año. El giro ocurre mientras Meta, Google y Tesla aceleran la carrera por interfaces conversacionales, y startups prueban formatos sin pantalla que ya han dejado tanto promesas como advertencias.

***

  • OpenAI habría unificado equipos de ingeniería, producto e investigación para reformar sus modelos de audio, según reportes citados por TechCrunch.
  • La industria impulsa un cambio hacia interfaces por voz: desde gafas inteligentes con múltiples micrófonos hasta resúmenes de búsqueda en audio y asistentes en vehículos.
  • Un nuevo modelo de audio de OpenAI, previsto para inicios de 2026, buscaría conversaciones más naturales, con interrupciones y capacidad de hablar al mismo tiempo que el usuario.

OpenAI está apostando fuerte por la inteligencia artificial de audio, y el objetivo no sería únicamente mejorar cómo “suena” ChatGPT. Según informó TechCrunch, citando reportes recientes de The Information, la compañía habría unificado varios equipos de ingeniería, producto e investigación durante los últimos dos meses para reformar sus modelos de audio, en preparación para un dispositivo personal “audio first”.

La expectativa, de acuerdo con la misma cobertura, es que dicho dispositivo se lance en aproximadamente un año. La idea sugiere un enfoque de hardware donde la voz, y no la pantalla, se convierta en el canal principal de interacción. Para un sector acostumbrado a medir avances en píxeles y tamaño de display, la apuesta implica una redefinición del centro de gravedad del cómputo personal.

Este movimiento encaja con una narrativa más amplia en Silicon Valley: la de una “guerra contra las pantallas”. La tesis plantea que, con modelos de lenguaje cada vez más capaces, el usuario ya no necesita mirar tanto. En cambio, podría conversar con sistemas que interpretan intenciones, ejecutan acciones y responden en lenguaje natural, en tiempo real y en cualquier lugar.

El giro también coincide con un cambio cultural. Muchas personas quieren reducir fricción, notificaciones y fatiga visual. El audio se presenta como una interfaz menos intrusiva, aunque no necesariamente menos presente, porque podría acompañar al usuario en casa, en el automóvil e incluso en dispositivos corporales.

Una industria que quiere que el audio tome el centro del escenario

TechCrunch sostiene que este impulso no es exclusivo de OpenAI. Los altavoces inteligentes ya convirtieron a los asistentes de voz en un elemento común en más de un tercio de los hogares de Estados Unidos. Ese dato funciona como indicador de adopción, y también como pista de mercado: existe costumbre y existe demanda para hablar con tecnología.

Meta, por ejemplo, acaba de lanzar una función para sus gafas inteligentes Ray-Ban que utiliza una matriz de cinco micrófonos para ayudar a escuchar conversaciones en habitaciones ruidosas. La descripción es llamativa: esencialmente, “convierte tu cara” en un dispositivo de escucha direccional. Esto sugiere que el micrófono, y no la cámara, podría ser el sensor más decisivo en la próxima ola de wearables.

Google también aparece en este mapa. Según la nota, la empresa empezó a experimentar en junio con “Audio Overviews”, una función que transforma resultados de búsqueda en resúmenes conversacionales. Es una señal de que el formato de consulta, históricamente visual, puede migrar hacia un consumo auditivo más parecido a un diálogo.

En paralelo, Tesla está integrando Grok y otros modelos de lenguaje en sus vehículos para crear asistentes de voz conversacionales. El objetivo sería manejar tareas como navegación y control climático mediante diálogo natural. La cabina del automóvil, que ya compite por atención con pantallas centrales, se convierte así en un escenario ideal para interfaces por voz, donde la seguridad y la comodidad empujan a “mirar menos”.

Startups, promesas y advertencias: del pin sin pantalla al anillo de IA

El artículo destaca que no solo los gigantes apuestan por el audio como interfaz del futuro. Un conjunto diverso de startups ha defendido la misma convicción, aunque con resultados dispares. La ambición suele ser similar: eliminar la pantalla y reemplazarla con conversación, contexto y presencia continua.

Entre los ejemplos citados se encuentra el pin de IA de Humane. Sus creadores, según TechCrunch, gastaron cientos de millones antes de que el dispositivo sin pantalla se convirtiera en una historia de advertencia. El caso ilustra un punto clave: la idea “screenless” puede ser atractiva, pero el hardware y el producto final deben justificar su existencia frente a teléfonos muy maduros.

También aparece el colgante Friend AI, descrito como un collar que asegura que grabará tu vida y ofrecerá compañía. La propuesta, de acuerdo con la nota, ha provocado preocupaciones de privacidad y un tipo de inquietud existencial. El audio, por su naturaleza, se cruza con conversaciones íntimas, espacios privados y hábitos cotidianos.

En ese mismo terreno emergen otros formatos. TechCrunch señala que al menos dos empresas, incluyendo Sandbar y otra dirigida por el fundador de Pebble, Eric Migicovsky, están construyendo anillos de IA que se esperan debutar en 2026. El detalle más gráfico es que permitirían a los usuarios literalmente “hablarle a su mano”, una metáfora potente sobre cómo la interfaz podría volverse portátil y casi invisible.

Qué busca OpenAI con un nuevo modelo de audio en 2026

Más allá de dispositivos, la noticia apunta al corazón técnico del cambio: los modelos de audio. Según el reporte, OpenAI tendría un nuevo modelo programado para principios de 2026. La promesa es una voz que suene más natural, con mayor cercanía a una conversación humana real.

Uno de los elementos que se mencionan es la capacidad de manejar interrupciones como lo haría un compañero de conversación. En interacciones reales, las personas se pisan, hacen pausas, corrigen frases y retoman ideas. Reproducir esa dinámica requiere no solo síntesis de voz, sino también detección robusta de turnos, intención y contexto en tiempo real.

Otro punto llamativo es que el modelo podría “hablar mientras estás hablando”. TechCrunch indica que esto es algo que los modelos actuales no pueden gestionar. Esa capacidad, si se materializa, podría cambiar la sensación de latencia y rigidez que todavía limita a muchos asistentes de voz.

El reporte también afirma que OpenAI imagina una familia de dispositivos, posiblemente incluyendo gafas o altavoces inteligentes sin pantalla. La ambición sería que actúen menos como herramientas y más como compañeros. Esa elección de palabras eleva las expectativas, pero también sube la vara en temas de confianza, privacidad y utilidad cotidiana.

Jony Ive y la idea de “corregir errores” de los gadgets del pasado

La cobertura añade un elemento de diseño y narrativa. The Information, citado por TechCrunch, vincula esta estrategia con Jony Ive, ex jefe de diseño de Apple. De acuerdo con la nota, Ive se sumó a los esfuerzos de hardware de OpenAI a través de la adquisición de su firma io por USD $6.500.000.000 en mayo.

El énfasis atribuido a Ive es reducir la adicción a los dispositivos. En esa lectura, el diseño centrado en audio sería una oportunidad para “corregir los errores” de los gadgets de consumo pasados. La frase sugiere una crítica a la economía de la atención y a productos construidos para capturar tiempo de pantalla.

Sin embargo, el audio no resuelve por sí solo el problema de la atención. Un dispositivo que escucha y habla puede ser menos visual, pero igual de persistente. Por eso, el desafío de OpenAI, si avanza hacia hardware, será equilibrar conveniencia con control del usuario, y potencia con límites claros.

En cualquier caso, la señal que deja la nota es contundente: el audio se está convirtiendo en interfaz. Cada espacio, desde el hogar hasta el coche, e incluso el rostro, comienza a operar como superficie de control. OpenAI, al reorganizar su apuesta por audio, parece estar buscando un lugar central en esa próxima etapa.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín