PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!
  • Sesja wygasła!
  • Sesja wygasła!
  • Sesja wygasła!
Tytuł artykułu

VSLAM analysis using various ORBSLAM parameters setting

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Analiza VSLAM przy użyciu różnych ustawień parametrów ORBSLAM
Języki publikacji
EN
Abstrakty
EN
SLAM or simultaneous localization and mapping system, is a system that determines the orientation and position of a robot by creating a detailed map of the environment while simultaneously tracking where the robot is within the environment. This project aims to use the camera as SLAM primary sensor to replace the LiDAR sensor frequently used in autonomous robots. ORBSLAM is used as the main algorithm, and a few settings are being adjusted to get the most accurate results. The Absolute Trajectory Error and Relative Pose Error are used to evaluate the algorithm's accuracy. After the most optimized setting is found, the setting is used for real-time mapping in an unknown environment.
PL
SLAM lub system jednoczesnej lokalizacji i mapowania, to system, który określa orientację i pozycję robota, tworząc szczegółową mapę otoczenia, jednocześnie śledząc, gdzie robot znajduje się w środowisku. Celem tego projektu jest wykorzystanie kamery jako głównego czujnika SLAM, który zastąpi czujnik LiDAR często używany w autonomicznych robotach. ORBSLAM jest używany jako główny algorytm, a kilka ustawień jest dostosowywanych, aby uzyskać jak najdokładniejsze wyniki. Bezwzględny błąd trajektorii i względny błąd pozycji służą do oceny dokładności algorytmu. Po znalezieniu najbardziej zoptymalizowanego ustawienia jest ono używane do mapowania w czasie rzeczywistym w nieznanym środowisku.
Rocznik
Strony
40--45
Opis fizyczny
Bibliogr. 21 poz., rys., tab.
Twórcy
autor
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
autor
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
autor
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
autor
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
  • Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Melaka, Malaysia
  • Autonomous Robotics Division, Strukture Robotics Sdn. Bhd
Bibliografia
  • [1] D. F. Wolf and G. S. Sukhatme, "Mobile robot simultaneous localization and mapping in dynamic environments," Auton. Robots, vol. 19, no. 1, pp. 53–65, 2005, doi: 10.1007/s10514-005-0606-4.
  • [2] E. A. Sholarin and J. L. Awange, "Global navigation satellite system (GNSS)," Environ. Sci. Eng. (Subseries Environ. Sci., no. 9783319276496, pp. 177–212, 2015, doi: 10.1007/978-3-319-27651-9_9.
  • [3] F. Gul, W. Rahiman, and S. S. Nazli Alhady, "A comprehensive study for robot navigation techniques," Cogent Eng., vol. 6, no. 1, 2019, doi: 10.1080/23311916.2019.1632046.
  • [4] S. Pillai, “IN MOBILE ROBOTS Sudeep Pillai,” 2017.
  • [5] K. Di, W. Wan, H. Zhao, Z. Liu, R. Wang, and F. Zhang, "Progress and Applications of Visual SLAM," Cehui Xuebao/Acta Geod. Cartogr. Sin., vol. 47, no. 6, pp. 770–779, 2018, doi: 10.11947/j.AGCS.2018.20170652.
  • [6] “LSD-slam and ORB-slam2, a literature based explanation | by Jeroen Zijlmans | Medium.” [Online]. Available: https://medium.com/@j.zijlmans/lsd-slam-vs-orb-slam2-aliterature-based-comparison-20732df431d.
  • [7] P. Latcham and C. N. Taylor, "Comparison of Visual Simultaneous Localization and Mapping Methods for Fixed-Wing Aircraft Using SLAMBench2," 2020 IEEE/ION Position, Locat. Navig. Symp. PLANS 2020, pp. 1578–1586, 2020, doi: 10.1109/PLANS46316.2020.9109945.
  • [8] S. Valladares, M. Toscano, R. Tufiño, P. Morillo, and D. Vallejo-Huanga, "Performance Evaluation of the Nvidia Jetson Nano Through a Real-Time Machine Learning Application," no. January, 343–349, 2021, doi: 10.1007/978-3-030-68017-6_51.
  • [9] D. Prokhorov, D. Zhukov, O. Barinova, K. Anton, and A. Vorontsova, "Measuring robustness of Visual SLAM," Proc. 16th Int. Conf. Mach. Vis. Appl. MVA 2019, 2019, doi: 10.23919/MVA.2019.8758020.
  • [10] R. Vilches, I. Martinez, M. A. L. Gonzalez, J. Crespo, and R. Barber, "Mobile Robotics Teaching Using Arduino and Ros," Iceri2014 7th Int. Conf. Educ. Res. Innov., no. November, pp. 827–833, 2014.
  • [11] A. Marin-Hernandez, "ROS Tutorial : Robotics Operation System," LAAS-CNRS Robot. Action Percept. Gr., pp. 5–7, 2014.
  • [12] A. Chatterjee, N. N. Singh, and A. Rakshit, Vision Based Autonomous Robot Navigation ; Algorithms and Implementations, vol. 2, no. 10308. 2013.
  • [13] N. Sünderhauf, "Robust Optimization for Simultaneous Localization and Mapping," Disseration Chemnitz Univ. Technol., no. April 1981, pp. 1–231, 2012.
  • [14] J. Kacprzyk, Robot Operating System (ROS) Vol 5, vol. 5, no. Volume 5. 2021.
  • [15] M. Haddad, S. Cheng, L. Thao, and J. Santos, "Autonomous Navigation Powered by Jetson TX2 and Robot Operating System," pp. 1–30, 2019, [Online]. Available: https://canadacollege.edu/stemcenter/documents/aspiresinternship2019/ASPIRES S19 Final Paper EE.pdf.
  • [16] M. Filipenko and I. Afanasyev, "Comparison of Various SLAMSystems for Mobile Robot in an Indoor Environment," 9th Int. Conf. Intell. Syst. 2018 Theory, Res. Innov. Appl. IS 2018 - Proc., no. September, pp. 400–407, 2018, doi: 10.1109/IS.2018.8710464.
  • [17] R. Mur-Artal, J. M. M. Montiel, and J. D. Tardos, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System," IEEE Trans. Robot., vol. 31, no. 5, pp. 1147–1163, 2015, doi: 10.1109/TRO.2015.2463671.
  • [18] I. Z. Ibragimov and I. M. Afanasyev, "Comparison of ROS-based visual SLAM methods in homogeneous indoor environment," 2017 14th Work. Positioning, Navig. Commun. WPNC 2017, vol. 2018-Janua, no. July 2018, pp. 1–6, 2018, doi: 10.1109/WPNC.2017.8250081.
  • [19] D. Scaramuzza and F. Fraundorfer, "Tutorial: Visual odometry," IEEE Robot. Autom. Mag., vol. 18, no. 4, pp. 80–92, 2011, doi: 10.1109/MRA.2011.943233.
  • [20] T. Taketomi, H. Uchiyama, and S. Ikeda, "Visual SLAM algorithms: A survey from 2010 to 2016," IPSJ Trans. Comput. Vis. Appl., vol. 9, 2017, doi: 10.1186/s41074-017-0027-2.
  • [21] B. Huang, J. Zhao, and J. Liu, "A Survey of Simultaneous Localization and Mapping with an Envision in 6G Wireless Networks," no. October, 2019, [Online]. Available: http://arxiv.org/abs/1909.05214.
Uwagi
Opracowanie rekordu ze środków MEiN, umowa nr SONP/SP/546092/2022 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2022-2023).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-43a6e993-2edc-4f30-b971-740e5a699849
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.