Lidar Slam i Visual Slam - pełne wprowadzenie i porównanie

SLAM (Simultaneous Localization and Mapping) to technologia, która umożliwia robotom lub innym urządzeniom tworzenie map i określanie ich pozycji w nieznanym środowisku w czasie rzeczywistym za pomocą pomiarów czujników. SLAM jest jedną z podstawowych technologii autonomicznej jazdy, nawigacji dronów, robotów przemysłowych i inteligentnych urządzeń. Wraz z rozwojem czujników i algorytmów, technologia SLAM ewoluowała w różne implementacje, w tym SLAM laserowy, SLAM wizyjny, SLAM oparty na fuzji promieniowania i widzenia oraz SLAM oparty na wielu czujnikach.

Źródła problemów SLAM

Technologia autonomicznej nawigacji jest kluczową technologią dla robotów, a roboty muszą rozwiązać następujące trzy problemy, aby zrealizować autonomiczną nawigację:

📢: 1. gdzie jestem?

📢: 2. gdzie iść?

📢: 3. Jak się tam dostać?

Pierwsze z tych pytań jest podstawą dla dwóch ostatnich, a jeśli ktoś nawet nie wie, gdzie się znajduje, jak może określić kierunek, w którym powinien podążać? SLAM jest jednym z rozwiązań pierwszego problemu.

W 1887 r. Smith i in. zaproponowali metodę jednoczesnej lokalizacji i mapowania, która otworzyła wstęp do badań nad jednoczesną lokalizacją i tworzeniem map.

Ogólnie rzecz biorąc, systemy SLAM zazwyczaj zawierają wiele czujników i wiele modułów funkcjonalnych. Zgodnie z podstawowymi modułami funkcjonalnymi, popularne systemy SLAM dla robotów mają dwie formy: SLAM oparty na LIDAR (Laser SLAM) i SLAM oparty na wizji (Visual SLAM lub VSLAM). Jesteśmy producentem robotów, zapewniamy naszym klientom usługi w zakresie projektowania robotów, badań i rozwoju, SMT i produkcji masowej.

Związek między pozycjonowaniem a tworzeniem map

W nieznanym środowisku, aby osiągnąć dokładne pozycjonowanie i tworzenie map, potrzebne są dokładne mapy, tworzenie dokładnych map i poleganie na dokładnym pozycjonowaniu, tworząc rodzaj wzajemnego sprzężenia, uzupełniającej się relacji.

1. Lidar SLAM

Laser SLAM to system, który wykorzystuje LiDAR (radar laserowy) do generowania danych chmury punktów 3D poprzez skanowanie laserowe przeszkód, terenu i obiektów w środowisku w celu precyzyjnej lokalizacji i tworzenia map. Laser SLAM jest szeroko stosowany w aplikacjach takich jak robotyka, samochody bez kierowcy i skanery terenu.

Laser SLAM jest oddzielony od wcześniejszych metod lokalizacji opartych na zasięgu (np. ultradźwiękowy i podczerwony jednopunktowy zasięg). Pojawienie się i popularyzacja LIDAR (Light Detection And Ranging) doprowadziło do szybszych, dokładniejszych i bardziej informatywnych pomiarów. Informacje o obiekcie zebrane przez LiDAR przedstawiają serię rozproszonych punktów z dokładnymi informacjami o kącie i odległości, które nazywane są chmurą punktów. Zazwyczaj laserowy system SLAM oblicza odległość i zmianę położenia LiDAR w stosunku do ruchu poprzez dopasowanie i porównanie dwóch fragmentów chmur punktów w różnych momentach, co również umożliwia lokalizację samego robota.

Informacje o obiekcie zebrane przez LiDAR przedstawiają serię rozproszonych punktów z dokładnymi informacjami o kącie i odległości, które nazywane są chmurą punktów. Zazwyczaj laserowy system SLAM oblicza odległość i zmianę położenia LIDAR w stosunku do ruchu, dopasowując i porównując dwie chmury punktów w różnych momentach, aby zakończyć lokalizację samego robota.

Pomiar odległości LiDAR jest dokładniejszy, model błędu jest prosty, działanie jest stabilne w środowiskach innych niż bezpośrednie jasne światło, a przetwarzanie chmury punktów jest stosunkowo łatwe. Jednocześnie same informacje o chmurze punktów zawierają bezpośrednie zależności geometryczne, dzięki czemu planowanie ścieżki robota i nawigacja są intuicyjne. Badania teoretyczne nad laserowym SLAM są również stosunkowo dojrzałe, a produktów do lądowania jest więcej.

Zalety Lidar SLAM

  1. Pojawienie się i popularyzacja LiDAR sprawia, że pomiary są szybsze, dokładniejsze i dostarczają więcej informacji.
  2. Model błędu jest prosty i stabilny w środowiskach innych niż bezpośrednie oświetlenie, a przetwarzanie chmur punktów jest stosunkowo łatwe.
  3. Sama informacja o chmurze punktów zawiera bezpośrednie zależności geometryczne, co sprawia, że planowanie ścieżki i nawigacja robota są intuicyjne.
  4. Dojrzałe badania, niższy próg w algorytmach

Wady Lidar SLAM

  1. Brak możliwości wykrywania pętli zwrotnej, eliminacja skumulowanego błędu jest trudniejsza.
  2. Koszt jest wyższy niż w przypadku czujnika wizualnego.
  3. Słaba lokalizacja w dynamicznych środowiskach.
  4. Słaba współpraca wielu robotów.

2. Wizualny SLAM

Visual SLAM wykorzystuje kamerę jako główny czujnik do konstruowania mapy i uzyskiwania lokalizacji na podstawie przechwyconych informacji o obrazie. Dzięki temu, że kamera jest niedrogim czujnikiem, SLAM wizyjny stał się gorącym tematem badań w ostatnich latach i jest szczególnie szeroko stosowany w dronach konsumenckich i urządzeniach AR / VR.

Wykorzystanie kamery jako jedynego czujnika wykrywającego otoczenie jest znane jako vision SLAM: rozpoczyna się od nieznanej lokalizacji w nieznanym środowisku, lokalizuje własną pozycję i położenie poprzez wielokrotne obserwowanie otaczających cech środowiskowych (drogowskazów) podczas ruchu, a następnie przyrostowo buduje mapę na podstawie własnej pozycji, osiągając w ten sposób jednoczesną lokalizację i tworzenie mapy. System VSLAM składa się z front-endu i back-endu, gdzie front-end jest odpowiedzialny za szybką lokalizację. Back-end jest odpowiedzialny za wolniejszą konserwację mapy: 1. (Loopback), aby powrócić do pierwotnej lokalizacji i skorygować pozycję i położenie każdej lokalizacji między dwiema wizytami; 2. Ponownie zlokalizować robota na podstawie informacji o teksturze wizji, gdy śledzenie frontonu zostanie utracone.

Trudność problemu pętli zwrotnej polega na tym, że mały niewykryty błąd pojawia się na początku, dopóki robot nie obejdzie pętli raz, a błąd będzie się kumulował, prowadząc do problemu, że pętla nie może zostać zamknięta.

Wizualna przewaga SLAM

Visual SLAM wykorzystuje kamerę jako główny czujnik do konstruowania mapy i uzyskiwania lokalizacji na podstawie przechwyconych informacji o obrazie. Dzięki temu, że kamera jest niedrogim czujnikiem, SLAM wizyjny stał się gorącym tematem badań w ostatnich latach i jest szczególnie szeroko stosowany w dronach konsumenckich i urządzeniach AR / VR.

Wykorzystanie kamery jako jedynego czujnika wykrywającego otoczenie jest znane jako vision SLAM: rozpoczyna się od nieznanej lokalizacji w nieznanym środowisku, lokalizuje własną pozycję i położenie poprzez wielokrotne obserwowanie otaczających cech środowiskowych (drogowskazów) podczas ruchu, a następnie przyrostowo buduje mapę na podstawie własnej pozycji, osiągając w ten sposób jednoczesną lokalizację i tworzenie mapy. System VSLAM składa się z front-endu i back-endu, gdzie front-end jest odpowiedzialny za szybką lokalizację. Back-end jest odpowiedzialny za wolniejszą konserwację mapy: 1. (Loopback), aby powrócić do pierwotnej lokalizacji i skorygować pozycję i położenie każdej lokalizacji między dwiema wizytami; 2. Ponownie zlokalizować robota na podstawie informacji o teksturze wizji, gdy śledzenie frontonu zostanie utracone.

Trudność problemu pętli zwrotnej polega na tym, że mały niewykryty błąd pojawia się na początku, dopóki robot nie obejdzie pętli raz, a błąd będzie się kumulował, prowadząc do problemu, że pętla nie może zostać zamknięta.

Wady wizualnego SLAM

  1. Większy wpływ światła.
  2. działa słabo w środowiskach bez tekstur (np. naprzeciwko czystej białej ściany).
  3. Próg algorytmiczny tej technologii jest również znacznie wyższy niż w przypadku laserowego SLAM. Konstrukcja mapy w oparciu o optymalizację nieliniową jest bardzo złożonym i czasochłonnym problemem obliczeniowym.

3. Konwergencja Lidar SLAM i Visual SLAM

Fuzja promieniowania i wizji SLAM zapewnia bardziej niezawodną lokalizację i tworzenie map poprzez połączenie danych z LIDAR i kamer, łącząc dokładność laserów z bogatymi informacjami wizualnymi z kamer. Fuzja ta poprawia wydajność w złożonych środowiskach i jest szeroko stosowana, zwłaszcza w dziedzinie autonomicznej jazdy.

Zalety i wady

  • Poprawa wydajności: Połączenie wysokiej precyzji lasera z bogatymi informacjami wizji sprawia, że system działa stabilniej w środowiskach takich jak światło i dynamiczne przeszkody.
  • Wysoka złożoność obliczeniowa: Ze względu na integrację wielu źródeł danych, złożoność obliczeniowa przetwarzania w czasie rzeczywistym jest wysoka.

4. SLAM z wieloma czujnikami

Wielosensorowy SLAM łączy dane z wielu czujników (IMU, kamery, LIDAR itp.) w celu uzyskania wysokiej precyzji lokalizacji i tworzenia map poprzez łączenie informacji z różnych źródeł. Wieloczujnikowy SLAM stał się ważną technologią dla nawigacji robotów i bezzałogowych pojazdów ze względu na swoją solidność i szerokie możliwości adaptacji.

System SLAM (Simultaneous Localization and Mapping) to technologia umożliwiająca robotom jednoczesną autonomiczną lokalizację i tworzenie map otoczenia poprzez łączenie danych pomiarowych z czujników. Realistyczne laserowe i wizyjne systemy SLAM są prawie zawsze wyposażone w pomocnicze narzędzia lokalizacyjne, takie jak elementy inercyjne, odometry turbinowe, systemy pozycjonowania satelitarnego i systemy pozycjonowania wewnętrznych stacji bazowych.

Systemy SLAM są zwykle łączone w oparciu o następujące czujniki:

Inercyjna jednostka pomiarowa (IMU): IMU jest w stanie zapewnić pomiary przyspieszenia i prędkości kątowej robota, które są wykorzystywane do szacowania zmian położenia i pozycji robota. W porównaniu do innych czujników, IMU mają możliwość pomiaru przy wysokich częstotliwościach, ale mogą cierpieć z powodu takich problemów jak dryf.

Czujniki wizyjne: obejmują one kamery, kamery głębi itp. Wyodrębniając i śledząc cechy w środowisku, można uzyskać informacje o pozycji i mapie robota w środowisku za pomocą czujników wizyjnych. Czujniki wizyjne mogą dostarczać bogatych informacji percepcyjnych, ale są wrażliwe na problemy takie jak światło i okluzja.

LiDAR: LiDAR uzyskuje informacje geometryczne o środowisku, emitując wiązkę laserową i mierząc światło odbite z powrotem. LIDAR zapewnia bardzo dokładne pomiary odległości i położenia i może być wykorzystywany do tworzenia map i wykrywania przeszkód. LIDAR jest jednak zazwyczaj droższy, większy i może mieć ograniczenia w przypadku szczególnie jasnych lub ciemnych obiektów.

Czujniki zasięgu: takie jak czujniki ultradźwiękowe i czujniki podczerwieni służą do pomiaru odległości między robotem a otaczającymi go obiektami. Czujniki zasięgu są powszechnie używane do unikania przeszkód i modelowania środowiska, ale mają ograniczoną dokładność i zasięg.

Fuzja danych z różnych czujników może łączyć zalety różnych czujników w celu poprawy dokładności i niezawodności lokalizacji i tworzenia map. Powszechnie stosowane metody obejmują rozszerzony filtr Kalmana (EKF), filtr cząstek i metody optymalizacji (np. optymalizacja grafów). Metody te są w stanie łączyć informacje uzyskane z różnych czujników i wykonywać estymację stanu oraz tworzenie map w celu realizacji funkcji systemów SLAM.

Zalety i wady

  • Zdolność do adaptacji: wielosensorowy SLAM jest w stanie łączyć i wykorzystywać wiele czujników w zależności od różnych środowisk, aby uzyskać dokładniejszą i bardziej niezawodną lokalizację.
  • Nadmiarowe informacje: fuzja wielu czujników może poprawić odporność systemu na awarie i zwiększyć jego odporność.
  • Złożoność: fuzja wielu czujników wymaga kalibracji danych i synchronizacji różnych typów czujników, co zwiększa złożoność projektu systemu.

Przyszłość SLAM

Wydajność algorytmu i czas rzeczywisty

Wraz z powszechnym wykorzystaniem SLAM w autonomicznej jeździe, bezzałogowych statkach powietrznych i urządzeniach elektroniki użytkowej, priorytetem badawczym stała się wydajność obliczeniowa algorytmów SLAM w czasie rzeczywistym. Aby poradzić sobie ze złożonością fuzji wielu czujników i ogromnym wolumenem obliczeniowym przetwarzania danych, przyszłe algorytmy SLAM będą musiały w większym stopniu polegać na akceleracji sprzętowej (np. GPU, FPGA) i obliczeniach rozproszonych.

Wytrzymałość i adaptacja do środowiska

Odporność technologii SLAM w złożonych, dynamicznych środowiskach, takich jak ulice miast, sceny przejściowe wewnątrz i na zewnątrz budynków itp. wymaga dalszej poprawy. W przyszłości algorytmy SLAM będą zwracać większą uwagę na odporność na dynamiczne przeszkody, zmiany oświetlenia i środowiska pozbawione tekstur, aby zwiększyć możliwości adaptacyjne systemu.

Semantyczny SLAM

Podczas gdy tradycyjny SLAM koncentruje się głównie na konstruowaniu informacji geometrycznych, przyszły SLAM będzie stopniowo integrował rozumienie semantyczne, tj. w procesie tworzenia mapy system może nie tylko konstruować mapy geometryczne, ale także rozpoznawać informacje semantyczne na mapie (np. budynki, znaki drogowe, pojazdy itp.). To znacznie zwiększy wartość zastosowania SLAM w autonomicznej jeździe i robotyce usługowej.

Fuzja czujników multimodalnych

Wraz z rozwojem technologii czujników, przyszłe systemy SLAM będą w większym stopniu polegać na fuzji czujników multimodalnych (laserowych, wizyjnych, radarowych, ultradźwiękowych, IMU itp.) w celu realizacji wszechstronnego, wielowymiarowego wykrywania danych, co jeszcze bardziej poprawi dokładność i niezawodność systemów SLAM.

Lekkość i niskie zużycie energii

W przypadku systemów wbudowanych i urządzeń klasy konsumenckiej (np. AR/VR, UAV) technologia SLAM musi zapewniać wydajne działanie przy ograniczonych zasobach obliczeniowych. Przyszłe algorytmy SLAM będą zwracać większą uwagę na lekką i energooszczędną konstrukcję, aby dostosować się do potrzeb wbudowanych platform sprzętowych.

Objęte branże

Technologia SLAM jest szeroko stosowana w wielu gałęziach przemysłu, w tym między innymi:

Jazda autonomiczna: Łącząc LIDAR, wizję i IMU, technologia SLAM umożliwia pojazdom autonomicznym osiągnięcie wysokiej precyzji pozycjonowania i nawigacji w złożonych środowiskach miejskich.

Nawigacja robotów: Roboty przemysłowe i usługowe wykorzystują technologię SLAM do autonomicznej nawigacji i wykonywania zadań w nieznanym środowisku. wizualna kosiarka automatyczna Kamera jest używana do nawigacji i mapowania.

Drony: Technologia SLAM odgrywa ważną rolę w autonomicznym locie i nawigacji dronów, zwłaszcza w środowiskach, w których sygnały GPS są słabe lub nieskuteczne.

AR/VR: Urządzenia rzeczywistości rozszerzonej i wirtualnej wymagają technologii SLAM, aby realizować percepcję środowiska w czasie rzeczywistym i nakładanie wirtualnej sceny.

Podsumowanie

Technologia SLAM jest podstawową technologią w dzisiejszych inteligentnych urządzeniach, takich jak autonomiczna jazda, robotyka i drony. Wraz z rozwojem czujników i algorytmów, SLAM laserowy, SLAM wizyjny, SLAM oparty na fuzji promieniowania i wizji oraz SLAM oparty na fuzji wielu czujników wykazały swoje wyjątkowe zalety w różnych scenariuszach. W przyszłości technologia SLAM będzie rozwijać się w kierunku większej dokładności, czasu rzeczywistego, niezawodności i fuzji multimodalnej, zapewniając bardziej niezawodne i wydajne rozwiązania dla różnych branż.

Chcesz dostosować robota mobilnego i kosiarkę robota, skontaktuj się z nami

Stopka formularza kontaktowego