Memories.ai, una startup fundada por exintegrantes del equipo detrás de las gafas Ray-Ban de Meta, busca resolver un problema poco atendido en la IA: cómo hacer que dispositivos portátiles y robots recuerden lo que ven. Su nueva alianza con Nvidia apunta a reforzar esa infraestructura con herramientas de razonamiento visual y búsqueda de video.
***
- Memories.ai anunció una alianza con Nvidia durante GTC para desarrollar su tecnología de memoria visual para wearables y robótica.
- La empresa, fundada en 2024, ha recaudado USD $16 millones y ya trabaja con grandes fabricantes, aunque no reveló sus nombres.
- Su visión es crear una capa de memoria visual que permita a la IA física indexar, almacenar y recuperar recuerdos en video.
La inteligencia artificial ha mejorado con rapidez en tareas digitales, desde escribir texto hasta resumir documentos o mantener conversaciones con contexto. Sin embargo, cuando se traslada al mundo físico, surge una limitación evidente: recordar lo que ve. Ese es el problema que Memories.ai intenta resolver con una infraestructura enfocada en memoria visual para dispositivos portátiles y sistemas robóticos.
La compañía anunció una colaboración con Nvidia durante la conferencia GTC de este lunes. El acuerdo permitirá a Memories.ai utilizar Cosmos-Reason 2, un modelo de lenguaje de visión para razonamiento, y Nvidia Metropolis, una aplicación orientada a búsqueda y resumen de videos, como parte del desarrollo de su tecnología.
La propuesta parte de una idea simple, pero ambiciosa. Si la IA va a interactuar con el mundo real a través de cámaras, sensores y dispositivos corporales, entonces necesitará una forma eficiente de almacenar, organizar y recuperar lo que observó antes. En otras palabras, requerirá una memoria visual operativa y útil.
Según reportó TechCrunch, el CEO Shawn Shen explicó que esa intuición surgió mientras él y su cofundador y CTO, Ben Zhou, trabajaban en el sistema de inteligencia artificial detrás de las gafas Ray-Ban de Meta. La experiencia los llevó a preguntarse cómo usarían realmente las personas estos productos si no podían recuperar de forma práctica la información grabada en video.
Una carencia que la IA basada en texto no resuelve
Shen sostiene que la IA ya funciona con soltura en entornos digitales, pero no necesariamente en el mundo físico. Desde su perspectiva, tanto los wearables como la robótica necesitan recuerdos para operar con mayor contexto. Su tesis es que, a largo plazo, la IA deberá disponer de memorias visuales si aspira a desenvolverse de forma natural fuera de la pantalla.
El planteamiento aparece en un momento en que varias plataformas ya incorporan funciones de memoria. OpenAI actualizó ChatGPT en 2024 para empezar a recordar conversaciones pasadas y afinó esa característica en 2025. En paralelo, xAI de Elon Musk y Google Gemini también lanzaron herramientas propias de memoria en los dos últimos años.
No obstante, Shen marcó una diferencia importante entre esos avances y la meta de su empresa. La memoria basada en texto resulta más estructurada y mucho más fácil de indexar. Pero ese formato no basta para aplicaciones físicas de IA, que dependen sobre todo de imágenes, escenas y flujos de video para interpretar su entorno.
El reto técnico es considerable. No se trata solo de guardar archivos visuales, sino de convertirlos en una representación de datos que pueda ser incrustada, indexada y luego recuperada de forma relevante. Eso exige modelos capaces de razonar sobre video, resumir eventos y encontrar momentos específicos dentro de grandes volúmenes de contenido.
Una startup nacida tras la experiencia en Meta
Memories.ai fue lanzada en 2024. Desde entonces ha recaudado USD $16 millones, repartidos entre una ronda semilla de USD $8 millones en julio de 2025 y una extensión adicional de USD $8 millones. La ronda fue liderada por Susa Ventures e incluyó a Seedcamp, Fusion Fund y Crane Venture Partners, entre otros inversionistas.
La empresa sostiene que construir una capa funcional de memoria visual requiere dos elementos centrales. El primero es la infraestructura necesaria para incrustar e indexar video en un formato que pueda almacenarse y consultarse después. El segundo es la recolección de datos adecuada para entrenar un modelo especializado en esa tarea.
En julio de 2025, la startup lanzó su modelo de memoria visual grande, o LVMM por sus siglas en inglés. Shen dijo que este puede compararse con una versión más pequeña de Gemini Embedding 2, un modelo multimodal de indexación y recuperación que fue presentado a inicios de este mes.
Esa comparación ayuda a ubicar la apuesta de Memories.ai dentro de una carrera más amplia en IA multimodal. El mercado está avanzando hacia sistemas que no solo comprendan texto, sino también imagen, audio y video. En ese marco, la memoria deja de ser una función secundaria y pasa a convertirse en un componente central del producto.
LUCI, Qualcomm y el negocio de la infraestructura
Para recopilar datos de entrenamiento, la empresa desarrolló LUCI, un dispositivo de hardware utilizado por sus “recolectores de datos”. Este equipo graba video que luego se usa para entrenar el modelo. Shen aclaró que Memories.ai no busca transformarse en una empresa de hardware ni comercializar estos dispositivos.
La razón para crear LUCI fue más práctica que comercial. Según explicó, las grabadoras disponibles en el mercado estaban demasiado enfocadas en formatos de alta definición y consumían mucha batería. Eso no se ajustaba a las necesidades de la compañía para registrar grandes cantidades de material útil para entrenamiento.
Además de su alianza con Nvidia, Memories.ai ya lanzó la segunda generación de su LVMM y firmó una asociación con Qualcomm. El objetivo es que esta tecnología pueda ejecutarse en procesadores de Qualcomm a partir de finales de este año. Ese paso sugiere un interés claro en llevar la memoria visual desde el entrenamiento hasta la computación en dispositivos.
La startup también trabaja con algunas grandes compañías del segmento de wearables, aunque Shen se negó a revelar cuáles son. Aun así, dijo ver una oportunidad más grande a futuro que en el presente. Su visión comercial se concentra hoy en el modelo y la infraestructura, bajo la premisa de que el mercado de dispositivos portátiles y robótica crecerá con el tiempo, aunque probablemente todavía no haya llegado a su punto de madurez.
Ese enfoque revela una estrategia parecida a la de otras empresas de infraestructura en IA. En vez de apostar de inmediato por un producto de consumo masivo, Memories.ai intenta posicionarse en una capa técnica crítica que podría volverse indispensable si despega la próxima generación de asistentes visuales, gafas inteligentes y robots autónomos.
Shen resumió esa idea con una premisa directa: si la IA quiere operar en el mundo físico, necesitará memorias visuales. El éxito de esa tesis dependerá de algo más que buenos modelos. También exigirá hardware eficiente, datasets amplios y una demanda real por parte de fabricantes que busquen convertir cámaras y sensores en sistemas capaces de recordar y actuar con contexto.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Criptomonedas
OpenClaw enciende alertas por riesgos de seguridad en habilidades para agentes IA
Estados Unidos
Deepfakes e IA agravan el conflicto entre EEUU e Irán con desinformación imposible de verificar
Bitcoin
HIVE acelera su giro al campo de la IA y apunta a USD $200 millones en ingresos para 2027
Bitcoin