Lidar Slam e Visual Slam Introduzione completa e confronto

SLAM (Simultaneous Localization and Mapping) è una tecnologia che consente ai robot o ad altri dispositivi di costruire mappe e determinare la propria posizione in ambienti sconosciuti in tempo reale attraverso le misurazioni dei sensori. SLAM è una delle tecnologie fondamentali per la guida autonoma, la navigazione dei droni, i robot industriali e i dispositivi intelligenti. Con lo sviluppo di sensori e algoritmi, la tecnologia SLAM si è evoluta in una varietà di implementazioni, tra cui SLAM laser, SLAM di visione, SLAM di fusione raggio-visione e SLAM multisensore.

Fonti del problema SLAM

La tecnologia di navigazione autonoma è una tecnologia chiave per i robot, che devono risolvere i tre problemi seguenti per realizzare la navigazione autonoma:

📢: 1. dove mi trovo?

📢: 2. Dove andare?

📢: 3. Come arrivare?

La prima di queste domande è la base per le ultime due, e se non si sa nemmeno dove ci si trova, come si può determinare la direzione da prendere? Lo SLAM è una delle soluzioni per risolvere il primo problema.

Nel 1887, Smith et al. proposero un metodo di localizzazione e mappatura simultanea, che aprì il preludio allo studio della localizzazione e della costruzione di mappe simultanee.

In generale, i sistemi SLAM contengono solitamente più sensori e più moduli funzionali. In base ai moduli funzionali principali, i comuni sistemi SLAM per robot hanno due forme: SLAM basato su LIDAR (Laser SLAM) e SLAM basato sulla visione (Visual SLAM o VSLAM). Siamo un produttore di robot e forniamo ai nostri clienti servizi di progettazione, R&S, SMT e produzione di massa.

Relazione tra posizionamento e costruzione della mappa

Nell'ambiente sconosciuto, per ottenere un posizionamento accurato e la costruzione di mappe, è necessario disporre di mappe accurate e fare affidamento su un posizionamento accurato, formando una sorta di accoppiamento reciproco, una relazione complementare.

1. Lidar SLAM

Il Laser SLAM è un sistema che si basa sul LiDAR (radar laser) per generare nuvole di punti 3D mediante scansione laser di ostacoli, terreno e oggetti nell'ambiente per la localizzazione di alta precisione e la creazione di mappe. Il Laser SLAM è ampiamente utilizzato in applicazioni come la robotica, le auto senza conducente e gli scanner del terreno.

📢 : Lo SLAM laser è svincolato dai precedenti metodi di localizzazione basati sul ranging (ad esempio, il ranging a singolo punto a ultrasuoni e a infrarossi). La comparsa e la diffusione del LIDAR (Light Detection And Ranging) ha portato a misurazioni più rapide, precise e ricche di informazioni. Le informazioni sull'oggetto raccolte dal LiDAR presentano una serie di punti sparsi con informazioni accurate sull'angolo e sulla distanza, chiamate nuvole di punti. Di solito, il sistema laser SLAM calcola la distanza e la variazione di assetto del LiDAR rispetto al movimento abbinando e confrontando due nuvole di punti in momenti diversi, realizzando così anche la localizzazione del robot stesso.

📢: le informazioni sull'oggetto raccolte dal LiDAR presentano una serie di punti dispersi con informazioni accurate sull'angolo e sulla distanza, chiamate nuvole di punti. Di solito, il sistema SLAM laser calcola la distanza e la variazione di assetto del LIDAR rispetto al movimento abbinando e confrontando le due nuvole di punti in momenti diversi, in modo da completare la localizzazione del robot stesso.

📢: la misurazione della distanza LiDAR è più precisa, il modello di errore è semplice, il funzionamento è stabile in ambienti diversi dalla luce diretta e luminosa e l'elaborazione della nuvola di punti è relativamente semplice. Allo stesso tempo, le informazioni della nuvola di punti contengono relazioni geometriche dirette, rendendo intuitiva la pianificazione del percorso e la navigazione del robot. Anche la ricerca teorica sul laser SLAM è relativamente matura e i prodotti di atterraggio sono più abbondanti.

Vantaggi dello SLAM Lidar

  1. La comparsa e la diffusione del LiDAR rende la misurazione più veloce, più accurata e più informativa.
  2. Il modello di errore è semplice e stabile in ambienti diversi dalla luce diretta e l'elaborazione delle nuvole di punti è relativamente semplice.
  3. Le informazioni della nuvola di punti contengono relazioni geometriche dirette, che rendono intuitiva la pianificazione del percorso e la navigazione del robot.
  4. Ricerca matura, soglia più bassa negli algoritmi

Svantaggi del Lidar SLAM

  1. La mancanza di capacità di rilevamento del loopback rende più difficile l'eliminazione dell'errore cumulativo.
  2. Il costo è superiore a quello del sensore visivo.
  3. Non è bravo nella localizzazione in ambienti dinamici.
  4. Scarsa collaborazione multi-robot.

2. SLAM visivo

Lo SLAM visivo utilizza una telecamera come sensore principale per costruire una mappa e ottenere la localizzazione dalle informazioni dell'immagine catturata. Con la fotocamera come sensore a basso costo, lo SLAM visivo è diventato un tema di ricerca molto caldo negli ultimi anni, ed è particolarmente diffuso nei droni di consumo e nei dispositivi AR/VR.

L'uso di una telecamera come unico sensore che percepisce l'ambiente è noto come vision SLAM: parte da una posizione sconosciuta in un ambiente sconosciuto, localizza la propria posizione e il proprio assetto osservando ripetutamente le caratteristiche ambientali circostanti (segnali) mentre si muove, quindi costruisce incrementalmente una mappa basata sulla propria posizione, ottenendo così la localizzazione e la costruzione simultanea della mappa. Un sistema VSLAM è composto da un front-end e da un back-end, dove il front-end è responsabile della localizzazione veloce. Il back-end è responsabile della manutenzione della mappa più lenta: 1. (Loopback) per tornare alla posizione originale e correggere la posizione e l'assetto di ciascuna posizione tra le due visite; 2. rilocalizzare il robot in base alle informazioni sulla texture della visione quando il tracciamento del front-end viene perso.

La difficoltà del problema del loopback consiste nel fatto che un piccolo errore non rilevato si verifica all'inizio, finché il robot non percorre il loop una volta, e l'errore si accumula, portando al problema dell'impossibilità di chiudere il loop.

Vantaggio SLAM visivo

Lo SLAM visivo utilizza una telecamera come sensore principale per costruire una mappa e ottenere la localizzazione dalle informazioni dell'immagine catturata. Con la fotocamera come sensore a basso costo, lo SLAM visivo è diventato un tema di ricerca molto caldo negli ultimi anni, ed è particolarmente diffuso nei droni di consumo e nei dispositivi AR/VR.

L'uso di una telecamera come unico sensore che percepisce l'ambiente è noto come vision SLAM: parte da una posizione sconosciuta in un ambiente sconosciuto, localizza la propria posizione e il proprio assetto osservando ripetutamente le caratteristiche ambientali circostanti (segnali) mentre si muove, quindi costruisce incrementalmente una mappa basata sulla propria posizione, ottenendo così la localizzazione e la costruzione simultanea della mappa. Un sistema VSLAM è composto da un front-end e da un back-end, dove il front-end è responsabile della localizzazione veloce. Il back-end è responsabile della manutenzione della mappa più lenta: 1. (Loopback) per tornare alla posizione originale e correggere la posizione e l'assetto di ciascuna posizione tra le due visite; 2. rilocalizzare il robot in base alle informazioni sulla texture della visione quando il tracciamento del front-end viene perso.

La difficoltà del problema del loopback consiste nel fatto che un piccolo errore non rilevato si verifica all'inizio, finché il robot non percorre il loop una volta, e l'errore si accumula, portando al problema dell'impossibilità di chiudere il loop.

Svantaggio dello SLAM visivo

  1. Più influenzato dalla luce.
  2. si comporta male in ambienti non strutturati (ad esempio, di fronte a un muro bianco e pulito).
  3. La costruzione di mappe basate sull'ottimizzazione non lineare è un problema computazionale molto complesso e che richiede molto tempo.

3. Convergenza tra SLAM lidar e SLAM visivo

Lo SLAM a fusione ray-vision raggiunge una localizzazione più robusta e la costruzione di mappe fondendo i dati di LIDAR e telecamere, combinando la precisione dei laser con le ricche informazioni visive delle telecamere. Questa fusione migliora le prestazioni in ambienti complessi ed è stata ampiamente utilizzata soprattutto nel campo della guida autonoma.

Vantaggi e svantaggi

  • Miglioramento delle prestazioni: Combinando l'alta precisione del laser con le ricche informazioni della visione, il sistema si comporta in modo più stabile in ambienti come la luce e gli ostacoli dinamici.
  • Elevata computazione: A causa dell'integrazione di più fonti di dati, la complessità computazionale dell'elaborazione in tempo reale è elevata.

4. SLAM multisensore

Lo SLAM multisensore combina i dati provenienti da più sensori (IMU, telecamere, LIDAR, ecc.) per ottenere una localizzazione di alta precisione e la costruzione di mappe fondendo le informazioni provenienti da fonti diverse. Lo SLAM multisensore è diventato una tecnologia importante per la navigazione robotica e la guida senza pilota, grazie alla sua robustezza e all'ampia adattabilità.

Il sistema SLAM (Simultaneous Localization and Mapping) è una tecnologia che consente ai robot di eseguire simultaneamente la localizzazione autonoma e la costruzione di mappe dell'ambiente combinando i dati di misura dei sensori. I sistemi SLAM realistici con laser e visione sono quasi sempre dotati di strumenti di localizzazione ausiliari, come elementi inerziali, odometri a turbina, sistemi di posizionamento satellitare e sistemi di posizionamento con stazione base interna.

I sistemi SLAM sono solitamente fusi sulla base dei seguenti sensori:

Unità di misura inerziale (IMU): l'IMU è in grado di fornire misure di accelerazione e velocità angolare del robot, utilizzate per stimare l'assetto e le variazioni di posizione del robot. Rispetto ad altri sensori, le IMU hanno la capacità di misurare ad alta frequenza, ma possono soffrire di problemi come la deriva.

Sensori di visione: comprendono telecamere, telecamere di profondità, ecc. Estraendo e tracciando le caratteristiche dell'ambiente, è possibile ottenere informazioni sulla posizione e sulla mappa del robot nell'ambiente utilizzando i sensori di visione. I sensori di visione possono fornire informazioni percettive ricche, ma sono sensibili a problemi come la luce e l'occlusione.

LiDAR: il LiDAR ottiene informazioni geometriche sull'ambiente emettendo un raggio laser e misurando la luce riflessa. Il LIDAR fornisce misure di distanza e posizione molto accurate e può essere utilizzato per la costruzione di mappe e il rilevamento di ostacoli. Tuttavia, il LIDAR è in genere più costoso, più grande e può avere limitazioni per oggetti particolarmente luminosi o scuri.

Sensori di portata: come i sensori a ultrasuoni e i sensori a infrarossi sono utilizzati per misurare la distanza tra il robot e gli oggetti circostanti. I sensori di portata sono comunemente utilizzati per evitare gli ostacoli a distanza ravvicinata e per la modellazione dell'ambiente, ma hanno una precisione e una portata limitate.

La fusione di dati provenienti da diversi sensori può combinare i vantaggi di vari sensori per migliorare l'accuratezza e la robustezza della localizzazione e della costruzione di mappe. I metodi comunemente utilizzati includono il filtro di Kalman esteso (EKF), il filtro delle particelle e i metodi di ottimizzazione (ad esempio, l'ottimizzazione dei grafi). Questi metodi sono in grado di fondere le informazioni ottenute da diversi sensori e di eseguire la stima dello stato e la costruzione della mappa per realizzare le funzioni dei sistemi SLAM.

Vantaggi e svantaggi

  • Adattabile: lo SLAM multisensore è in grado di combinare e utilizzare più sensori in base ai diversi ambienti per ottenere una localizzazione più precisa e robusta.
  • Informazioni ridondanti: la fusione di più sensori può migliorare la tolleranza ai guasti del sistema e aumentarne la robustezza.
  • Complessità: la fusione multi-sensore richiede la calibrazione dei dati e la sincronizzazione di diversi tipi di sensori, il che aumenta la complessità della progettazione del sistema.

Il futuro dello SLAM

Efficienza dell'algoritmo e tempo reale

Con l'uso diffuso dello SLAM nella guida autonoma, negli UAV e nei dispositivi elettronici di consumo, l'efficienza in tempo reale e computazionale degli algoritmi SLAM è diventata una priorità della ricerca. Per far fronte alla complessità della fusione multi-sensore e all'enorme volume computazionale dell'elaborazione dei dati, i futuri algoritmi SLAM dovranno fare maggiore affidamento sull'accelerazione hardware (ad esempio, GPU, FPGA) e sull'elaborazione distribuita.

Robustezza e adattamento ambientale

La robustezza della tecnologia SLAM in ambienti dinamici complessi, come le strade cittadine, le scene di transizione in interni e in esterni, ecc. In futuro, gli algoritmi SLAM presteranno maggiore attenzione alla robustezza in risposta a ostacoli dinamici, cambiamenti di illuminazione e ambienti privi di texture, per migliorare l'adattabilità del sistema.

SLAM semantico

Mentre lo SLAM tradizionale si concentra principalmente sulla costruzione di informazioni geometriche, lo SLAM del futuro integrerà gradualmente la comprensione semantica, vale a dire che nel processo di costruzione delle mappe il sistema potrà non solo costruire mappe geometriche, ma anche riconoscere le informazioni semantiche presenti nella mappa (ad esempio, edifici, segnali stradali, veicoli, ecc.). Ciò aumenterà notevolmente il valore applicativo dello SLAM nella guida autonoma e nella robotica di servizio.

Fusione di sensori multimodali

Con lo sviluppo della tecnologia dei sensori, i futuri sistemi SLAM si baseranno sempre più sulla fusione di sensori multimodali (laser, visione, radar, ultrasuoni, IMU, ecc.) per realizzare un rilevamento dei dati a tutto tondo e multidimensionale, migliorando così ulteriormente l'accuratezza e la robustezza dei sistemi SLAM.

Leggero e a basso consumo energetico

Per i sistemi embedded e i dispositivi consumer-grade (ad esempio, AR/VR, UAV), la tecnologia SLAM deve raggiungere un funzionamento efficiente con risorse di calcolo limitate. I futuri algoritmi SLAM presteranno maggiore attenzione alla progettazione leggera e a basso consumo per adattarsi alle esigenze delle piattaforme hardware embedded.

Settori coperti

La tecnologia SLAM è stata ampiamente utilizzata in diversi settori, tra cui, a titolo esemplificativo e non esaustivo:

Guida autonoma: Fondendo LIDAR, visione e IMU, la tecnologia SLAM consente ai veicoli autonomi di ottenere un posizionamento e una navigazione di alta precisione in ambienti urbani complessi.

Navigazione dei robot: I robot industriali e di servizio si affidano alla tecnologia SLAM per la navigazione autonoma e l'esecuzione di compiti in ambienti sconosciuti, come ad esempio Altverse. robot visivi tagliaerba viene utilizzata la telecamera per la navigazione e la mappatura.

Droni: La tecnologia SLAM svolge un ruolo importante nel volo autonomo e nella navigazione dei droni, soprattutto in ambienti in cui i segnali GPS sono deboli o inefficaci.

AR/VR: i dispositivi per la realtà aumentata e la realtà virtuale necessitano della tecnologia SLAM per realizzare la percezione dell'ambiente in tempo reale e la sovrapposizione della scena virtuale.

Riassumere

La tecnologia SLAM è il fulcro dei dispositivi intelligenti di oggi, come la guida autonoma, la robotica e i droni. Con il progresso dei sensori e lo sviluppo degli algoritmi, lo SLAM laser, lo SLAM con visione, lo SLAM con fusione di raggi e lo SLAM con fusione di più sensori hanno mostrato i loro vantaggi unici in diversi scenari. In futuro, la tecnologia SLAM si svilupperà verso una maggiore precisione, in tempo reale, robustezza e fusione multimodale, fornendo soluzioni più affidabili ed efficienti per diversi settori industriali.

Volete personalizzare il robot mobile e la falciatrice robot, contattateci

Piè di pagina del modulo di contatto