PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

SLAM Systems : Overview of Algorithms and Applications

Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Systemy SLAM : przegląd algorytmów i zastosowań
Języki publikacji
EN
Abstrakty
EN
Simultaneous Localization and Mapping (SLAM) represents a key technology enabling autonomous navigation and precise mapping of environments, whether they are unknown or lack GNSS signals. This process integrates localization with mapping by utilizing data from various sensors, such as cameras, lidars, and inertial measurement units (IMU). Over the years, SLAM technology has evolved dynamically, addressing challenges related to sensor noise, computational complexity, and variable operational conditions. This paper provides a comprehensive review of SLAM methods, focusing on classical algorithms - such as EKF-SLAM, Graph-Based SLAM, and FastSLAM - as well as modern approaches, including Visual SLAM, LiDAR-SLAM, and systems that combine visual data with inertial measurements. It discusses various mapping strategies, from grid maps and feature-based maps to topological representations and 3D point clouds, which are fundamental to autonomous systems. Furthermore, the paper highlights the applications of SLAM technology in robotics, autonomous vehicles, and drones, demonstrating its broad utility across different fields. Finally, it examines current challenges and future directions, offering researchers and practitioners valuable insights for further refining and implementing SLAM systems.
PL
Jednoczesna lokalizacja i mapowanie (SLAM) to kluczowa technologia umożliwiająca autonomiczną nawigację oraz precyzyjne mapowanie środowisk, zarówno w przestrzeniach nieznanych, jak i pozbawionych sygnału GNSS. Proces ten integruje lokalizację z mapowaniem, wykorzystując dane pochodzące z różnorodnych czujników, takich jak kamery, lidary oraz jednostki inercyjne (IMU). Na przestrzeni lat technologia SLAM dynamicznie się rozwijała, odpowiadając na wyzwania związane z szumem sensorycznym, złożonością obliczeniową oraz zmiennością środowisk operacyjnych. Artykuł prezentuje kompleksowy przegląd metod SLAM, koncentrując się na klasycznych algorytmach, takich jak EKF-SLAM, Graph-Based SLAM i FastSLAM, a także na nowoczesnych podejściach, w tym Visual SLAM, LiDAR-SLAM oraz systemach łączących wizję z danymi inercyjnymi. Omówiono różnorodne strategie mapowania - od map siatkowych, przez mapy cech, aż po topologiczne reprezentacje i chmury punktów 3D - które są fundamentem systemów autonomicznych. Przedstawiono także zastosowania technologii SLAM w robotyce, pojazdach autonomicznych oraz dronach, ukazując szerokie spektrum jej wykorzystania w różnych dziedzinach. Artykuł analizuje bieżące wyzwania oraz kierunki przyszłego rozwoju, oferując naukowcom i praktykom wskazówki do dalszego udoskonalania i implementacji systemów SLAM.
Rocznik
Strony
37--47
Opis fizyczny
Bibliogr. 23 poz., rys., tab.
Twórcy
  • Military University of Technology, Faculty of Electronics, Institute of Radioelectronics, 2 gen. S. Kaliskiego St., 00-908 Warsaw, Poland
Bibliografia
  • [1] Smith R., Cheeseman P., On the Representation and Estimation of Spatial Uncertainty, International Journal of Robotics Research, 5, 4, 1986.
  • [2] Lu F., Milios E., Globally Consistent Range Scan Alignment for Environment Mapping, Autonomous Robots, 4, 1997, 333-349.
  • [3] Gutmann J., Konolige K., Incremental Mapping of Large Cyclic Environments, [in:] Proceedings of the IEEE International Symposium on Computational Intelligence in Robotics and Automation (CIRA), 1999.
  • [4] Dissanayake G., Newman P., Clark S., Durrant-Whyte H., Csorba M., A Solution to the Simultaneous Localization and Map Building (SLAM) Problem, IEEE Transactions on Robotics and Automation, 2001.
  • [5] Montemerlo M., Thrun S., Koller D., Wegbreit B., FastSLAM: A Factored Solution to the SLAM Problem, [in:] Proceedings of the AAAI National Conference on Artificial Intelligence, 2002.
  • [6] Lu F., Milios E., Robot Pose Estimation in Unknown Environments by Matching 2D Range Scans, Journal of Intelligent and Robotic Systems, 18, 3, 2003, 249-275.
  • [7] Durrant-Whyte H., Bailey T., Simultaneous Localization and Mapping: Part I, IEEE Robotics & Automation Magazine, 13, 2, 2006, 99-110.
  • [8] Bailey T., Durrant-Whyte H., Simultaneous Localization and Mapping (SLAM): Part II, IEEE Robotics & Automation Magazine, 13, 3, 2006, 108-117.
  • [9] Davison A. J., Reid I. D., Molton N. D., Stasse O., MonoSLAM: Real-Time SIngle Camera SLAM, IEEE Transactions on Pattern Analysis and Machine Intelligence, 29, 6, 2007, 1052-67.
  • [10] Klein G., Murray D., Parallel Tracking and Mapping for Small AR Workspaces, [in:] Proceedings of the IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR), 2007.
  • [11] Grisetti G., Stachniss C., Burgard W., Improved Techniques for Grid Mapping with Rao-Blackwellized Particle Filters, IEEE Transactions on Robotics, 23, 1, 2007.
  • [12] Kaess M., Ranganathan A., Dellaert F., iSAM: Incremental Smoothing and Mapping, IEEE Transactions on Robotics, 24, 6, 2008, 1365-1378.
  • [13] Engel J., Schöps T., Cremers D., LSD-SLAM: Large-Scale Direct Monocular SLAM, [in:] Proceedings of the European Conference on Computer Vision (ECCV), Springer 2014.
  • [14] Zhang J., Singh S., LOAM: Lidar Odometry and Mapping in Real-time, [in:] Proceedings of Robotics: Science and Systems (RSS), 2014.
  • [15] Mur-Artal R., Montiel J.M.M., Tardós J.D., ORB-S-LAM: A Versatile and Accurate Monocular SLAM System, IEEE Transactions on Robotics, 31, 5, 2015, 1147-1163.
  • [16] Wolcott R., Eustice R. M., Robust LIDAR Localization Using Multiresolution Gaussian Mixture Maps for Autonomous Driving, International Journal of Robotics Research, 36, 3, 2017.
  • [17] Qin T., Li P., Shen S., VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator, IEEE Transactions on Robotics, 2018.
  • [18] Wang S., Clark R., Wen H., Trigoni N., DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks, [in:] Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), 2017.
  • [19] Tateno K., Tombari F., Laina I., Navab N., CNN-SLAM: Real-Time Dense Monocular SLAM with Learned Depth Prediction, [in:] Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.
  • [20] Teed D., Deng J., Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras, [in:] Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2021.
  • [21] Cadena C., Carlone L., Carrillo H., Latif Y., Scaramuzza D., Neira J., Reid I., Leonard J. J., Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age, IEEE Transactions on Robotics, 32, 6, 2016, 1309-1332.
  • [22] Leutenegger S., Lynen S., Bosse M., Siegwart R., Furgale P., Keyframe-Based Visual-Inertial Odometry Using Nonlinear Optimization, International Journal of Robotics Research, 34, 3, 2014.
  • [23] Armeni I., Sax S., Zamir A. R., Savarese S., Joint 2D-3D-Semantic Data for Indoor Scene Understanding, 2017.
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki (2025).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-8b65e8fb-959e-48bd-bd60-db146800fedc
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.