SLAM (Simultaneous Localization and Mapping) es una tecnología que permite a los robots u otros dispositivos construir mapas y determinar sus posiciones en entornos desconocidos en tiempo real mediante mediciones de sensores. SLAM es una de las tecnologías básicas para la conducción autónoma, la navegación de drones, los robots industriales y los dispositivos inteligentes. Con el desarrollo de sensores y algoritmos, la tecnología SLAM ha evolucionado hacia diversas implementaciones, como SLAM láser, SLAM de visión, SLAM de fusión rayo-visión y SLAM multisensor.
SLAM Problem Sources
La tecnología de navegación autónoma es una tecnología clave para los robots, y éstos necesitan resolver los tres problemas siguientes para hacer realidad la navegación autónoma
📢: 1. ¿dónde estoy?
📢: 2. ¿Adónde ir?
📢: 3. ¿Cómo llegar hasta allí?
La primera de estas preguntas es la base de las dos últimas, y si uno ni siquiera sabe dónde está, ¿cómo puede determinar la dirección a seguir? Y el SLAM es una de las soluciones para resolver el primer problema.
En 1887, Smith et al. propusieron un método de localización y cartografía simultáneas, que abrió el preludio al estudio de la localización y la construcción de mapas simultáneas.
En general, los sistemas SLAM suelen contener varios sensores y varios módulos funcionales. Según los módulos funcionales principales, los sistemas SLAM comunes para robots tienen dos formas: SLAM basado en LIDAR (Laser SLAM) y SLAM basado en visión (Visual SLAM o VSLAM). Somos fabricantes de robots y ofrecemos a nuestros clientes servicios de diseño de robots, I+D, SMT y producción en serie.
Relación entre posicionamiento y construcción de mapas
En el entorno desconocido para lograr un posicionamiento preciso y la construcción de mapas necesita mapas precisos, el establecimiento de mapas precisos y dependen de un posicionamiento preciso, formando una especie de acoplamiento mutuo, relación complementaria.
1. Lidar SLAM
El SLAM láser es un sistema que se basa en LiDAR (radar láser) para generar datos de nubes de puntos 3D mediante el escaneado láser de obstáculos, terreno y objetos del entorno para una localización de alta precisión y la creación de mapas. El SLAM láser se utiliza ampliamente en aplicaciones como la robótica, los coches sin conductor y los escáneres de terreno.
📢 : El sistema láser SLAM se desvincula de los métodos de localización basados en la medición de distancias anteriores (por ejemplo, la medición de distancias de un solo punto por ultrasonidos e infrarrojos). La aparición y popularización del LIDAR (Light Detection And Ranging) ha dado lugar a mediciones más rápidas, precisas e informativas. La información de objetos recopilada por el LIDAR presenta una serie de puntos dispersos con información precisa de ángulos y distancias, lo que se denomina nube de puntos. Por lo general, el sistema láser SLAM calcula la distancia y el cambio de actitud del LIDAR en relación con el movimiento haciendo coincidir y comparando dos fragmentos de nubes de puntos en diferentes momentos, lo que también logra la localización del propio robot.
📢: la información del objeto recopilada por el LiDAR presenta una serie de puntos dispersos con información precisa de ángulo y distancia, lo que se denomina nube de puntos. Por lo general, el sistema láser SLAM calcula la distancia y el cambio de actitud del LIDAR en relación con el movimiento haciendo coincidir y comparando los dos fragmentos de nubes de puntos en diferentes momentos, para así completar la localización del propio robot.
📢: la medición de distancia LiDAR es más precisa, el modelo de error es simple, la operación es estable en entornos distintos a la luz brillante directa y el procesamiento de la nube de puntos es relativamente fácil. Al mismo tiempo, la información de la nube de puntos en sí contiene relaciones geométricas directas, lo que hace que la planificación de la ruta y la navegación del robot sean intuitivas. La investigación teórica de Laser SLAM también es relativamente madura y los productos de aterrizaje son más abundantes.
Lidar SLAM Advantages
- La aparición y popularización del LiDAR hace que la medición sea más rápida, más precisa y más informativa.
- El modelo de error es simple y estable en entornos distintos a la luz directa, y el procesamiento de nubes de puntos es relativamente fácil.
- La propia información de la nube de puntos contiene relaciones geométricas directas, lo que hace que la planificación de la trayectoria y la navegación del robot sean intuitivas.
- Investigación madura, umbral más bajo en algoritmos
Lidar SLAM Disadvantages
- Al no haber capacidad de detección de bucle invertido, la eliminación del error acumulativo es más difícil.
- El costo es mayor que el sensor visual.
- No es bueno en la localización en entornos dinámicos.
- Mala colaboración entre múltiples robots.
2. Visual SLAM
Visual SLAM utiliza una cámara como sensor principal para construir un mapa y lograr la localización a partir de la información de la imagen capturada. Con la cámara como sensor de bajo costo, la visión SLAM se ha convertido en un tema de investigación de gran interés en los últimos años y se utiliza especialmente en drones de consumo y dispositivos AR/VR.
El uso de una cámara como el único sensor que detecta el entorno se conoce como visión SLAM: comienza desde una ubicación desconocida en un entorno desconocido, ubica su propia posición y actitud observando repetidamente las características ambientales circundantes (señales) mientras se mueve, y luego construye incrementalmente un mapa basado en su propia posición, logrando así la localización y la construcción del mapa simultáneas. Un sistema VSLAM consta de un front-end y un back-end, donde el front-end es responsable de la localización rápida. El back-end es responsable del mantenimiento más lento del mapa: 1. (Loopback) para regresar a la ubicación original y corregir la posición y la actitud de cada ubicación entre las dos visitas; 2. Relocalizar el robot en función de la información de textura de la visión cuando se pierde el seguimiento del front-end.
La dificultad del problema del bucle invertido es que se produce un pequeño error no detectado al principio hasta que el robot da una vuelta por el bucle, y el error se acumula, lo que genera el problema de que el bucle no se puede cerrar.
Visual SLAM Advantage
Visual SLAM utiliza una cámara como sensor principal para construir un mapa y lograr la localización a partir de la información de la imagen capturada. Con la cámara como sensor de bajo costo, la visión SLAM se ha convertido en un tema de investigación de gran interés en los últimos años y se utiliza especialmente en drones de consumo y dispositivos AR/VR.
El uso de una cámara como el único sensor que detecta el entorno se conoce como visión SLAM: comienza desde una ubicación desconocida en un entorno desconocido, ubica su propia posición y actitud observando repetidamente las características ambientales circundantes (señales) mientras se mueve, y luego construye incrementalmente un mapa basado en su propia posición, logrando así la localización y la construcción del mapa simultáneas. Un sistema VSLAM consta de un front-end y un back-end, donde el front-end es responsable de la localización rápida. El back-end es responsable del mantenimiento más lento del mapa: 1. (Loopback) para regresar a la ubicación original y corregir la posición y la actitud de cada ubicación entre las dos visitas; 2. Relocalizar el robot en función de la información de textura de la visión cuando se pierde el seguimiento del front-end.
La dificultad del problema del bucle invertido es que se produce un pequeño error no detectado al principio hasta que el robot da una vuelta por el bucle, y el error se acumula, lo que genera el problema de que el bucle no se puede cerrar.
Visual SLAM Disadvantage
- Más afectado por la luz.
- funciona mal en entornos sin textura (por ejemplo, frente a una pared blanca limpia).
- El umbral algorítmico de la tecnología también es mucho más alto que el del láser SLAM. La construcción de mapas basada en la optimización no lineal es un problema computacional muy complejo y que requiere mucho tiempo.
3. Convergencia de Lidar SLAM y Visual SLAM
La fusión de SLAM con visión de rayos logra una localización y una construcción de mapas más robustas al fusionar datos de LIDAR y cámaras, combinando la precisión de los láseres con la rica información visual de las cámaras. Esta fusión mejora el rendimiento en entornos complejos y se ha utilizado ampliamente, especialmente en el campo de la conducción autónoma.
Advantages and Disadvantages
- Mejora del rendimiento: la combinación de la alta precisión del láser con la rica información de la visión hace que el sistema funcione de manera más estable en entornos con obstáculos ligeros y dinámicos.
- Alta complejidad computacional: debido a la integración de múltiples fuentes de datos, la complejidad computacional del procesamiento en tiempo real es alta.
4. Multi-Sensor SLAM
El SLAM multisensor combina datos de múltiples sensores (IMU, cámaras, LIDAR, etc.) para lograr una localización de alta precisión y la creación de mapas mediante la fusión de información de diferentes fuentes. El SLAM multisensor se ha convertido en una tecnología importante para la navegación robótica y la conducción no tripulada debido a su robustez y amplia adaptabilidad.
El sistema SLAM (Simultaneous Localization and Mapping) es una tecnología que permite a los robots realizar simultáneamente la localización autónoma y la construcción de mapas del entorno mediante la combinación de datos de medición de sensores. Los sistemas SLAM de visión y láser realistas casi siempre están equipados con herramientas de localización auxiliares, como elementos inerciales, odómetros de turbina, sistemas de posicionamiento por satélite y sistemas de posicionamiento de estaciones base en interiores.
Los sistemas SLAM suelen estar fusionados en función de los siguientes sensores:
Unidad de medición inercial (IMU): la IMU puede proporcionar mediciones de aceleración y velocidad angular del robot, que se utilizan para estimar los cambios de actitud y posición del robot. En comparación con otros sensores, las IMU tienen la capacidad de medir a altas frecuencias, pero pueden sufrir problemas como la deriva.
Sensores de visión: incluyen cámaras, cámaras de profundidad, etc. Al extraer y rastrear características del entorno, se puede obtener la posición y la información del mapa del robot en el entorno mediante sensores de visión. Los sensores de visión pueden proporcionar información perceptiva enriquecida, pero son sensibles a problemas como la luz y la oclusión.
LiDAR: el sistema LIDAR obtiene información geométrica sobre el entorno emitiendo un haz láser y midiendo la luz reflejada. El LIDAR proporciona mediciones de distancia y posición de gran precisión y se puede utilizar para la creación de mapas y la detección de obstáculos. Sin embargo, el LIDAR suele ser más caro, más grande y puede tener limitaciones para objetos especialmente brillantes u oscuros.
Sensores de alcance: como los sensores ultrasónicos y los sensores infrarrojos, se utilizan para medir la distancia entre el robot y los objetos circundantes. Los sensores de alcance se utilizan habitualmente para evitar obstáculos a corta distancia y modelar el entorno, pero tienen una precisión y un alcance limitados.
La fusión de datos de diferentes sensores puede combinar las ventajas de varios sensores para mejorar la precisión y la solidez de la localización y la construcción de mapas. Los métodos más utilizados incluyen el filtro de Kalman extendido (EKF), el filtro de partículas y los métodos de optimización (por ejemplo, la optimización de gráficos). Estos métodos pueden fusionar la información obtenida de diferentes sensores y realizar la estimación del estado y la construcción de mapas para implementar las funciones de los sistemas SLAM.
Advantage and Disadvantage
- Adaptable: SLAM multisensor es capaz de combinar y utilizar múltiples sensores según diferentes entornos para lograr una localización más precisa y robusta.
- Información redundante: la fusión de múltiples sensores puede mejorar la tolerancia a fallas del sistema y mejorar la robustez del sistema.
- Complejidad: la fusión de múltiples sensores requiere la calibración de datos y la sincronización de diferentes tipos de sensores, lo que aumenta la complejidad del diseño del sistema.
The Future of SLAM
Eficiencia del algoritmo y tiempo real
Con el uso generalizado de SLAM en la conducción autónoma, los vehículos aéreos no tripulados y los dispositivos electrónicos de consumo, la eficiencia computacional y en tiempo real de los algoritmos SLAM se ha convertido en una prioridad de investigación. Para hacer frente a la complejidad de la fusión de múltiples sensores y al enorme volumen computacional del procesamiento de datos, los futuros algoritmos SLAM deberán depender más de la aceleración de hardware (por ejemplo, GPU, FPGA) y la computación distribuida.
Robustez y adaptación ambiental
Es necesario mejorar aún más la robustez de la tecnología SLAM en entornos dinámicos complejos, como calles de la ciudad, escenas de transición entre interiores y exteriores, etc. En el futuro, los algoritmos SLAM prestarán más atención a la robustez en respuesta a obstáculos dinámicos, cambios de iluminación y entornos sin texturas para mejorar la adaptabilidad del sistema.
SLAM semántico
Mientras que el SLAM tradicional se centra principalmente en la construcción de información geométrica, el SLAM futuro integrará gradualmente la comprensión semántica, es decir, en el proceso de construcción de mapas, el sistema no solo puede construir mapas geométricos, sino también reconocer la información semántica en el mapa (por ejemplo, edificios, señales de tráfico, vehículos, etc.). Esto mejorará en gran medida el valor de aplicación del SLAM en la conducción autónoma y la robótica de servicios.
Fusión de sensores multimodales
Con el desarrollo de la tecnología de sensores, los futuros sistemas SLAM dependerán más de la fusión de sensores multimodales (láser, visión, radar, ultrasónico, IMU, etc.) para lograr una detección de datos multidimensional y completa, mejorando así aún más la precisión y robustez de los sistemas SLAM.
Ligero y de bajo consumo energético
En el caso de los sistemas integrados y los dispositivos de consumo (por ejemplo, AR/VR, UAV), la tecnología SLAM debe lograr un funcionamiento eficiente con recursos informáticos limitados. Los futuros algoritmos SLAM prestarán más atención al diseño liviano y de bajo consumo para adaptarse a las necesidades de las plataformas de hardware integrado.
Industrias abarcadas
La tecnología SLAM se ha utilizado ampliamente en varias industrias, incluidas, entre otras:
Conducción autónoma: Al fusionar LIDAR, visión e IMU, la tecnología SLAM permite que los vehículos autónomos logren un posicionamiento y una navegación de alta precisión en entornos urbanos complejos.
Navegación robótica: los robots industriales y de servicios se basan en la tecnología SLAM para lograr una navegación autónoma y la ejecución de tareas en entornos desconocidos, como Altverse. robot cortacésped visual Se utiliza la cámara para navegación y cartografía.
Drones: La tecnología SLAM juega un papel importante en el vuelo autónomo y la navegación de drones, especialmente en entornos donde las señales GPS son débiles o ineficaces.
AR/VR: Los dispositivos de realidad aumentada y realidad virtual necesitan tecnología SLAM para lograr la percepción del entorno en tiempo real y la superposición de escenas virtuales.
Resuma
La tecnología SLAM es la tecnología central en los dispositivos inteligentes actuales, como la conducción autónoma, la robótica y los drones. Con el avance de los sensores y el desarrollo de algoritmos, la SLAM láser, la SLAM de visión, la SLAM de fusión de rayos y visión y la SLAM de fusión multisensor han demostrado sus ventajas únicas en diferentes escenarios. En el futuro, la tecnología SLAM evolucionará hacia una mayor precisión, tiempo real, robustez y fusión multimodal, proporcionando soluciones más confiables y eficientes para diversas industrias.
Quiere Personalizar Robot Móvil y Robot Cortacésped, Contáctenos

Experto en robótica, apasionado de la exploración de una amplia gama de robots, robots que hacen el trabajo más eficaz, exploración de robots, incluidos robots móviles, robots cortacésped.
