Un equipo de investigadores presentó un marco de localización relativa 3D para sistemas multi robot que combina mediciones de ángulos internos y autodesplazamiento con técnicas lineales, optimización sobre variedades, inferencia bayesiana y estimación neuronal de densidad. El resultado apunta a una localización más precisa y robusta, incluso bajo ruido, con validación en simulaciones y pruebas reales con drones.
***
- El trabajo propone una teoría de localización relativa lineal distribuida que permite estimar posiciones y orientaciones entre robots usando solo ángulos y autodesplazamiento.
- Para enfrentar el ruido de medición, el marco suma un estimador MAP, un esquema WTLS sobre variedades, una red de estimación de densidad y un mecanismo de marginalización.
- Las simulaciones y experimentos en interiores y exteriores con drones mostraron mejoras de precisión frente a métodos como EKF, PF, SDP y mínimos cuadrados no lineales.
🚀 Nuevo avance en robótica 3D
Investigadores presentan un marco de localización relativa que mejora la precisión en sistemas multi robot.
Utiliza mediciones de ángulos y autodesplazamiento con técnicas de optimización y aprendizaje.
Pruebas con drones muestran resultados… pic.twitter.com/Iwctfp3jKG
— Diario฿itcoin (@DiarioBitcoin) April 5, 2026
La localización relativa entre robots es una pieza básica para cualquier sistema multi robot que deba cooperar en tareas complejas. Sin ella, coordinar exploración, recolección de información o vuelos en formación se vuelve mucho más difícil, especialmente cuando cada unidad se mueve con su propio marco de referencia y los sensores introducen ruido.
En ese contexto, el estudio 3-D Relative Localization for Multi-Robot Systems with Angle and Self-Displacement Measurements, firmado por Chenyang Liang, Liangming Chen, Baoyi Cui y Jie Mei, plantea un marco integral para estimar posiciones y orientaciones relativas en 3D usando mediciones inter robot de ángulos internos y autodesplazamientos. La propuesta fue validada con simulaciones y con experimentos reales en interiores y exteriores usando drones.
La idea central del trabajo es combinar simplicidad algebraica con robustez probabilística. Primero, los autores construyen una teoría de localización relativa lineal distribuida. Después, añaden herramientas más avanzadas para lidiar con ruido, evitar óptimos locales y mantener controlado el costo computacional a medida que los robots siguen moviéndose.
Ese equilibrio importa porque muchos métodos existentes sacrifican una cosa por otra. Algunos modelos basados en aprendizaje evitan cálculos complicados, pero suelen generalizar mal entre distintos entornos. Otros enfoques algebraicos son fáciles de implementar, aunque se degradan cuando las mediciones son ruidosas. Los métodos probabilísticos pueden ser más precisos, pero también más costosos y delicados de inicializar.
Qué problema intenta resolver el nuevo marco
La investigación se enfoca en la localización relativa entre robots, es decir, en estimar tanto posiciones como orientaciones de los vecinos dentro de un sistema cooperativo. A diferencia de la localización individual estilo SLAM, aquí el reto es que varios agentes deben ubicarse entre sí a partir de mediciones locales, sin depender necesariamente de marcos perfectamente alineados o calibraciones exhaustivas.
Los autores eligen trabajar con mediciones de ángulos por dos motivos. Primero, porque los resultados pueden extenderse a escenarios donde se dispone de bearings o distancias. Segundo, porque ya existen sensores capaces de capturar estos ángulos, como arreglos de antenas o módulos modernos de conectividad con capacidades de dirección de llegada.
El trabajo asume que cada robot puede medir ángulos internos firmados respecto a sus vecinos y también su propio desplazamiento entre instantes consecutivos en su marco local. En la implementación experimental, ese autodesplazamiento se obtuvo con un sistema visual-inercial, mientras que los ángulos se derivaron de sensores de ángulo de llegada.
Con esas entradas, el equipo desarrolla una formulación geométrica para grupos mínimos de cuatro robots no coplanares que formen tetraedros. Sobre esa base, el sistema puede extenderse a redes más grandes, siempre que cumplan una condición topológica que el paper denomina rigidez angular tetraédrica.
La base lineal: posiciones y orientaciones por álgebra
Uno de los aportes principales es una teoría de localización relativa lineal. Según los autores, esta incluye un algoritmo distribuido y una condición suficiente de localizabilidad. En términos prácticos, el método permite que los robots determinen posiciones y orientaciones relativas resolviendo ecuaciones lineales, sin recurrir de entrada a optimizaciones no convexas.
El trabajo distingue dos escenarios. En el primero, todos los robots comparten marcos de coordenadas alineados. En ese caso, con mediciones de dos pasos temporales es posible recuperar las posiciones relativas. En el segundo, más realista, los marcos locales no están alineados. Allí hacen falta tres pasos temporales para recuperar también las orientaciones relativas.
Los autores formalizan esta propiedad con la noción de localizabilidad relativa de d pasos. Si el sistema multi robot cumple la condición topológica propuesta, entonces puede ser localizado de manera relativa en dos pasos cuando los marcos están alineados y en tres pasos cuando no lo están.
La ventaja de este enfoque, según el paper, es doble. Por un lado, su costo computacional es bajo porque solo requiere resolver sistemas lineales. Por otro, no necesita información previa ni calibración explícita de marcos antes de iniciar, lo que facilita su despliegue en aplicaciones reales con múltiples robots o drones.
Cómo enfrentan el ruido: WTLS, MAP e IA
La parte más ambiciosa del trabajo aparece cuando el equipo aborda el problema del ruido de medición. Resolver ecuaciones lineales directas con datos ruidosos puede generar errores relevantes, así que el estudio suma un estimador Maximum a Posterior, o MAP, para aprovechar tanto la verosimilitud de las mediciones como información previa sobre los estados.
Sin embargo, el propio paper reconoce tres obstáculos clásicos del MAP. El primero es la no convexidad de la optimización, que puede llevar a óptimos locales. El segundo es la falta de una densidad previa confiable para las posiciones y orientaciones relativas iniciales. El tercero es que el tamaño del problema crece con el tiempo, elevando el costo computacional.
Para el primer punto, los autores reformulan el proceso lineal como un problema de Weighted Total Least Squares, o WTLS, sobre variedades. Con ello, obtienen estimaciones iniciales más precisas y físicamente coherentes, que luego se usan para arrancar la optimización MAP con menor riesgo de caer en soluciones locales.
Para el segundo punto, incorporan un estimador neuronal de densidad, o NDE. La idea es aproximar la densidad condicional necesaria para el MAP usando simulaciones, una red neuronal de alimentación hacia adelante con dos capas ocultas de 30 neuronas cada una, y una formulación basada en mezcla de gaussianas. El paper argumenta que este enfoque evita el alto costo de métodos bayesianos analíticos o aproximaciones por muestreo intensivo.
En el tercer frente, el trabajo diseña un mecanismo de marginalización. Como el MAP es un estimador por lotes, acumula estados a estimar mientras los robots se siguen moviendo. La marginalización elimina estados viejos de la ventana activa, pero preserva su información en términos compactos, de modo que el costo de cómputo se mantenga constante en el tiempo.
Resultados en simulaciones y comparación con otros métodos
Las simulaciones muestran una mejora progresiva de precisión desde el algoritmo lineal base hasta la versión avanzada con MAP. En un entorno de cuatro robots moviéndose en un espacio de 10 m × 10 m × 10 m, el estudio ejecutó 50 simulaciones Monte Carlo con escalas de ruido de 0,005, 0,01, 0,05 y 0,08.
Según los datos reportados, el RMSE medio del Algoritmo 1 fue de 0,6888; 1,1441; 2,3897 y 2,9730 para cada nivel de ruido. En el Algoritmo 2, esos valores bajaron a 0,4202; 0,5492; 1,4391 y 2,2578. En el Algoritmo 4, que integra el estimador MAP y la estrategia completa, el RMSE medio descendió aún más hasta 0,3008; 0,4920; 0,6893 y 0,8342.
El paper también evaluó la importancia de las condiciones iniciales y de la densidad previa. Cuando el MAP se alimentó con mejores inicializaciones provenientes del Algoritmo 2, los resultados fueron más precisos. Del mismo modo, la estimación neuronal de densidad ofreció un desempeño cercano al de un escenario ideal con priors muy exactos, superando configuraciones gaussianas menos realistas.
En comparaciones con algoritmos existentes, el marco propuesto fue contrastado con SDP, filtro de partículas, EKF y mínimos cuadrados no lineales. En varios escenarios de ruido y distintos tamaños de espacio operativo, el Algoritmo 4 mostró menor error y menor varianza que sus alternativas, especialmente bajo ruido moderado o alto y sin depender de una inicialización manual tan precisa como la que exigen EKF o PF.
En tiempo computacional, el algoritmo lineal fue el más rápido. El Algoritmo 4 fue más costoso, como era esperable por estimar múltiples instantes a la vez, aunque el mecanismo de marginalización evitó que ese costo siguiera creciendo con el tiempo. El estudio reportó tiempos medios de 3,2168 segundos para el Algoritmo 4 y 0,6907 segundos para el Algoritmo 2, frente a 4,9373 segundos para SDP y 1,5188 segundos para mínimos cuadrados no lineales.
Pruebas reales con drones en interiores y exteriores
La validación experimental se hizo con cuatro drones. En interiores, cada unidad montó un sensor XPLR-AOA con etiqueta Bluetooth para medir ángulos de llegada, además de un sistema VINS-Mono con cámara RealSense D455 e IMU integrada en un controlador CUAV Nora. El cómputo a bordo quedó a cargo de un Intel NUC 12 Pro con procesador i7-1260P, mientras que la verdad de terreno fue capturada con Vicon.
En esa prueba, uno de los drones permaneció fijo, aunque con sensores activos. Las mediciones de ángulos se tomaron a 50 Hz y los autodesplazamientos a 200 Hz. Los resultados mostraron un RMSE medio de 1,1524 para el método propuesto, frente a 2,4690 para EKF y 2,2556 para PF. El trabajo indica además que el ruido angular estuvo aproximadamente entre 0 y 0,087 rad, y el del autodesplazamiento entre 0 y 0,2 m.
En exteriores, el experimento sustituyó los ángulos por mediciones de distancia usando sensores UWB LinkTrack y empleó RTK OEM-F9P-4G como referencia. A partir de esas distancias y de la altura respecto al suelo, el sistema reconstruyó los ángulos requeridos por el marco teórico. En ese escenario, el método volvió a superar a sus comparadores.
Los RMSE medios reportados al aire libre fueron 1,3584 para la propuesta, 1,9391 para SDP, 3,3990 para mínimos cuadrados no lineales, 2,1595 para EKF y 2,7848 para PF. A partir del instante 10, los errores crecieron en todos los métodos, algo que los autores atribuyen a la expansión del rango de movimiento de los drones y al incremento del ruido en las mediciones. En este caso, el ruido en distancia se ubicó aproximadamente entre 0 y 0,4 m.
Por qué este trabajo puede importar más allá de la robótica
Aunque el estudio se centra en sistemas multi robot, su valor trasciende esa área. En términos de ingeniería, muestra cómo combinar álgebra lineal, optimización geométrica y modelos probabilísticos con redes neuronales en un mismo flujo de estimación. Esa mezcla es relevante para campos como vehículos autónomos, enjambres de drones, logística automatizada e incluso redes descentralizadas de sensores.
También ofrece una lección útil para quienes siguen de cerca la IA aplicada. En vez de presentar un modelo puramente aprendido, el trabajo integra aprendizaje solo donde realmente aporta, en este caso para estimar densidades previas difíciles de modelar. El resto del sistema conserva una fuerte estructura matemática e interpretable.
Los autores además extienden su marco a otros tipos de sensores. Explican cómo convertir mediciones de azimut y elevación a los ángulos que requiere el algoritmo, y cómo hacer algo similar con distancias entre robots si cada unidad puede medir su altura respecto a un suelo plano. También plantean mecanismos para detectar outliers causados por NLOS o multitrayectoria y analizan la robustez ante fallas de sensores.
En su conclusión, el estudio sostiene que el marco propuesto constituye una solución sistemática y práctica para localización relativa 3D en sistemas multi robot. La combinación de teoría lineal, WTLS sobre variedades, estimación neuronal de densidad, MAP y marginalización apunta a un objetivo claro: mejorar precisión sin perder viabilidad operativa en escenarios reales.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Y Combinator rompe con Delve tras acusaciones sobre certificaciones de cumplimiento
Empresas
Microsoft enfría el discurso sobre Copilot y advierte: no debe usarse para consejos importantes
Estados Unidos
Hollywood adopta IA desde abajo y los asistentes temen pagar el costo
IA