Meta dio un paso importante para ampliar el alcance de sus gafas Ray-Ban Display: abrió la plataforma a desarrolladores externos, habilitó aplicaciones web y extendió a todos los usuarios su sistema de escritura neuronal con gestos. La actualización también suma grabación de pantalla, subtítulos en vivo y navegación peatonal en más ciudades.
***
- Meta abrió en vista previa para desarrolladores las aplicaciones de terceros para sus Ray-Ban Display, con soporte para apps web y un SDK móvil.
- La escritura neuronal con la pulsera incluida ya está disponible para todos en WhatsApp, Messenger, Instagram y mensajería nativa de Android e iOS.
- Las gafas también suman grabación de pantalla, subtítulos en vivo y rutas para caminar en todo Estados Unidos y en ciudades como Londres, París y Roma.
Meta anunció una nueva expansión de capacidades para sus gafas inteligentes Meta Ray-Ban Display, un dispositivo que hasta ahora había sido reconocido más por su hardware que por la estrechez de su ecosistema de software. La novedad principal es la apertura de la plataforma a desarrolladores externos, lo que permitirá la llegada de aplicaciones y experiencias creadas fuera del entorno propio de la compañía.
El movimiento apunta a resolver una de las críticas más repetidas desde el lanzamiento de las gafas de USD $800: su pantalla y su interfaz prometían mucho, pero la mayor parte de las funciones dependían casi por completo de herramientas hechas por Meta. Con esta actualización, la empresa busca convertir ese hardware en una plataforma más flexible y, potencialmente, más útil en escenarios cotidianos.
Junto a esa apertura, Meta también activó para todos los usuarios una de las funciones más llamativas que había mostrado desde la presentación inicial del producto: la escritura neuronal. Esta herramienta permite redactar respuestas o mensajes mediante gestos de la mano, apoyándose en la pulsera neuronal incluida con las gafas.
La combinación de nuevas funciones para usuarios y nuevas herramientas para desarrolladores revela una estrategia clara. Meta quiere acelerar la evolución de sus wearables con pantalla antes de su próximo evento Connect, donde se esperan más anuncios sobre su hoja de ruta en gafas inteligentes e incluso posibles nuevos modelos.
Apps de terceros y apertura de la plataforma
La actualización más importante es la apertura en vista previa para desarrolladores. Meta permitirá que terceros experimenten con aplicaciones habilitadas para pantalla y también con el controlador Neural Band, la pulsera neuronal asociada al dispositivo. De esta forma, la empresa extiende el acceso a elementos clave de la experiencia, más allá de sus aplicaciones internas.
Según la información divulgada esta semana, la plataforma será compatible con aplicaciones que tengan una app móvil complementaria para iOS o Android. Además, también dará soporte a aplicaciones web, algo que reduce la barrera de entrada para estudios pequeños, desarrolladores independientes y equipos que quieran probar ideas sin depender de una tienda de apps tradicional.
En ese modelo, los desarrolladores podrán crear nuevas experiencias con HTML, CSS y JavaScript. Luego, esas herramientas se abrirán desde una URL directamente en las gafas, en vez de requerir una descarga dedicada. Meta también puso a disposición un Wearables Device Access Toolkit para reutilizar componentes de interfaz como botones, imágenes, texto y reproducción de video.
La empresa sugiere varios casos de uso para esta nueva etapa. Entre ellos aparecen juegos, herramientas de transporte, guías de cocina, listas de compras, práctica de instrumentos, experiencias de medios en streaming y pantallas de datos en tiempo real, como puntuaciones o actualizaciones de estado. En otras palabras, Meta parece apostar por microaplicaciones y superposiciones de información que se adapten bien a una pantalla monocular de 20 grados, más que a una experiencia inmersiva completa.
Uno de los primeros ejemplos compartidos por la empresa fue “Darkroom Buddy”, una guía interactiva para revelar película fotográfica pensada como referencia de consulta rápida. También se mostraron conceptos de minijuegos como ajedrez, snake y un título de estilo brick breaker. Aunque no hay fechas concretas para la disponibilidad general de estas apps, el anuncio abre la puerta a una utilidad mucho más amplia para el dispositivo.
Ese detalle no es menor. Hasta ahora, distintos análisis especializados habían coincidido en que el software de las Ray-Ban Display estaba demasiado vinculado al ecosistema de Meta. La apertura a terceros podría cambiar esa percepción, aunque todavía queda pendiente ver cuántos desarrolladores adoptan la plataforma y con qué velocidad llegan experiencias reales al mercado.
La escritura neuronal ya llega a todos los usuarios
La otra gran novedad es la expansión general de la escritura neuronal. Meta confirmó que la función ya está disponible para todos los usuarios, después de haber pasado por una fase de acceso anticipado lanzada en enero para WhatsApp y Messenger.
La herramienta utiliza la pulsera neuronal incluida con Meta Ray-Ban Display. Gracias a ella, el usuario puede trazar letras con los dedos y generar texto mediante gestos, sin necesidad de sacar el teléfono o usar un teclado físico. Cuando se mostró por primera vez, esta fue una de las capacidades que más llamaron la atención del dispositivo.
Con esta actualización, la escritura virtual podrá usarse en WhatsApp, Messenger, Instagram y también en la mensajería nativa de Android e iOS. Esa ampliación es relevante porque convierte a la función en una herramienta transversal de comunicación, no limitada solo a los servicios propios de la empresa.
Para Meta, esta clase de interacción es una forma de diferenciar sus gafas de otros wearables. En lugar de depender solo de voz, toques o comandos básicos, la compañía intenta crear un lenguaje de entrada más discreto y natural. Aun así, el éxito práctico de esta función dependerá de qué tan intuitiva resulte en el uso diario y de cuánto consuma en batería junto al resto de funciones activas.
Grabación de pantalla, subtítulos y navegación peatonal
Meta también incorporó una función llamada “grabación de pantalla”. Con ella, el usuario puede capturar un video que combina tres elementos en un solo clip: lo que aparece en la pantalla de la lente, lo que ve en el mundo real y el audio del entorno. La función apunta tanto a compartir contenido como a mostrar con más claridad cómo se siente usar una interfaz heads-up en la práctica.
La empresa sumó además subtítulos en vivo. En concreto, estarán disponibles en WhatsApp y Facebook Messenger, y también para mensajes de voz en los mensajes directos de Instagram. Otras referencias sobre la actualización señalan subtítulos en vivo en llamadas realizadas mediante Messenger, WhatsApp e Instagram, lo que refuerza el foco de Meta en accesibilidad y comunicación multimodal dentro de sus apps más usadas.
En materia de navegación, las indicaciones para caminar ahora están disponibles en todo Estados Unidos. Meta también extendió esta función a ciudades internacionales importantes, entre ellas Londres, París y Roma. Esa expansión sugiere que la compañía busca convertir las gafas en una herramienta útil para desplazamientos urbanos, uno de los escenarios en los que una pantalla ligera puede tener más valor que un visor de realidad aumentada más pesado.
Estas funciones llegan en un momento en que Meta intenta demostrar que sus gafas pueden servir para mucho más que capturar contenido o consultar respuestas rápidas de IA. Si bien la promesa inicial del producto se centró en la mezcla de diseño, pantalla y asistencia contextual, el desafío ha sido traducir esa visión en usos concretos y recurrentes.
Lo que cambia para el mercado de wearables
La importancia de este anuncio va más allá de una simple actualización de software. En el mercado de wearables con pantalla, el hardware por sí solo rara vez basta. Lo que suele definir el éxito de una plataforma es la disponibilidad de aplicaciones, la utilidad en tareas reales y la capacidad de generar un ecosistema de desarrolladores suficientemente atractivo.
Meta parece haber entendido ese punto. Al habilitar apps web, SDK móvil y acceso al Neural Band, reduce la distancia entre idea y prototipo. Eso puede acelerar la experimentación en áreas como productividad ligera, cocina, navegación, información deportiva, entrenamiento y entretenimiento breve. También abre la posibilidad de que aparezcan herramientas de nicho que antes no tenían espacio dentro del catálogo oficial de la empresa.
Sin embargo, todavía persisten interrogantes. No está claro cuándo estarán disponibles las primeras aplicaciones de terceros para el público general. También queda por ver cómo afectarán estas nuevas experiencias a la duración de la batería, un punto sensible en un dispositivo compacto donde las funciones intensivas en pantalla pueden consumir energía con rapidez.
El anuncio también llega poco después de que Meta confirmara las fechas de su próximo evento Connect. Ese contexto es relevante porque sugiere que la compañía está preparando una fase más ambiciosa para sus wearables, posiblemente con nuevas iteraciones de las Ray-Ban Display. Mientras tanto, quienes ya poseen el dispositivo reciben un paquete de mejoras que intenta hacerlo más completo, más abierto y más competitivo.
En conjunto, la actualización representa un cambio de tono para Meta Ray-Ban Display. Las gafas siguen sin ofrecer una experiencia inmersiva comparable a la de otros visores AR independientes, pero Meta parece inclinarse por un enfoque más pragmático: superposiciones útiles, interacción ligera, comunicación contextual y apps rápidas de consultar. Si logra atraer desarrolladores y mantener una experiencia fluida, ese enfoque podría terminar siendo más importante que una promesa futurista todavía lejana.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
XAI lanza Grok Build para competir con Claude Code en programación profesional
Asia
Corea del Norte aumentó en 51% el robo de criptomonedas en 2025, según CrowdStrike
Criptomonedas
Amenaza de hackeo con IA sacude a DeFi tras robos por casi USD $600 millones
Estados Unidos