PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Visual simultaneous localization and mapping using direct-based method for unmanned aerial vehicle (UAV)

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Wizualna jednoczesna lokalizacja i mapowanie przy użyciu metody bezpośredniej dla bezzałogowych statków powietrznych (UAV)
Języki publikacji
EN
Abstrakty
EN
The Direct Sparse Odometry (DSO) technique is a new form of visual odometry that makes use of a direct and sparse structure to achieve precision. In this project, the objective is to apply the DSO algorithm on the Unmanned Aerial Vehicle (UAV) application. The main studies in this project are focusing on the experimentation for DSO algorithm parameter setting. Another objective is to evaluate the parameter and performance of DSO algorithm. The data evaluation was based on three different environments in the university campus. In this project, the Realsense D435i camera was applied to the RDDRONE-FMUK66 with interface of the Raspberry Pi 3 B+ model to capture the data. This project managed to analyze suitable point values on the active points and gradient parameter setting. The same parameter configuration which concerns on point density and keyframe management have been experimented in the three environment. From this project it is concluded that DSO on UAV can be improved in order to gain a stable data processing to be applied in the algorithm.
PL
Technika Direct Sparse Odometry (DSO) to nowa forma wizualnej odometrii, która wykorzystuje bezpośrednią i rzadką strukturę w celu osiągnięcia precyzji. W tym projekcie celem jest zastosowanie algorytmu DSO w aplikacji Bezzałogowego Statku Powietrznego (UAV). Główne badania w tym projekcie koncentrują się na eksperymentach dotyczących ustawiania parametrów algorytmu DSO. Kolejnym celem jest ocena parametrów i wydajności algorytmu DSO. Ocena danych została oparta na trzech różnych środowiskach w kampusie uniwersyteckim. W tym projekcie kamera Realsense D435i została zastosowana do RDDRONE-FMUK66 z interfejsem modelu Raspberry Pi 3 B+ do przechwytywania danych. W ramach tego projektu udało się przeanalizować odpowiednie wartości punktów w aktywnych punktach i ustawienia parametrów gradientu. Ta sama konfiguracja parametrów, która dotyczy gęstości punktów i zarządzania klatkami kluczowymi, została przetestowana w trzech środowiskach. Z tego projektu wynika, że DSO na UAV można udoskonalić w celu uzyskania stabilnego przetwarzania danych do zastosowania w algorytmie.
Słowa kluczowe
EN
VSLAM   DSO   UAV   ROS   raspberry Pi  
PL
VSLAM   DSO   UAV   ROS   Raspberry Pi   wizualizacja   mapa  
Rocznik
Strony
129--134
Opis fizyczny
Bibliogr. 6 poz., rys., tab.
Twórcy
  • Centre for Telecommunication Research & Innovation (CeTRI), Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Hang Tuah Jaya, 76100 Durian Tunggal, Melaka, Malaysia
  • Centre for Telecommunication Research & Innovation (CeTRI), Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Hang Tuah Jaya, 76100 Durian Tunggal, Melaka, Malaysia
  • Centre for Telecommunication Research & Innovation (CeTRI), Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Hang Tuah Jaya, 76100 Durian Tunggal, Melaka, Malaysia
autor
  • Centre for Telecommunication Research & Innovation (CeTRI), Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Hang Tuah Jaya, 76100 Durian Tunggal, Melaka, Malaysia
  • Centre for Telecommunication Research & Innovation (CeTRI), Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Hang Tuah Jaya, 76100 Durian Tunggal, Melaka, Malaysia
  • Centre for Telecommunication Research & Innovation (CeTRI), Fakulti Kejuruteraan Elektronik dan Kejuruteraan Komputer (FKEKK), Universiti Teknikal Malaysia Melaka (UTeM), Hang Tuah Jaya, 76100 Durian Tunggal, Melaka, Malaysia
  • Faculty of Electrical and Electronics Engineering Technology, Universiti Malaysia Pahang (UMP), 26600, Pekan, Pahang, Malaysia
Bibliografia
  • [1] S. Chen, W. Zhou, A. S. Yang, H. Chen, B. Li, and C. Y. Wen, “An End-to-End UAV Simulation Platform for Visual SLAM and Navigation,” Aerospace, vol. 9, no. 2, pp. 1–16, 2022.
  • [2] N. Yang, R. Wang, X. Gao, and D. Cremers, “Challenges in monocular visual odometry: Photometric calibration, motion bias, and rolling shutter effect,” IEEE Robot. Autom. Lett., vol. 3, no. 4, pp. 2878–2885, 2018.
  • [3] M. I. Idris et al., “VSLAM analysis using various ORBSLAM parameters setting,” Prz. Elektrotechniczny, vol. 98, no. 9, pp. 40–45, 2022.
  • [4] J. Engel, V. Koltun, and D. Cremers, “Direct Sparse Odometry,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 40, no. 3, pp. 611–625, 2018.
  • [5] X. Gao, R. Wang, N. Demmel, and D. Cremers, “LDSO: Direct Sparse Odometry with Loop Closure,” IEEE Int. Conf. Intell. Robot. Syst., no. August, pp. 2198–2204, 2018.
  • [6] Z. Chen, W. Sheng, G. Yang, Z. Su, and B. Liang, “Comparison and Analysis of Feature Method and Direct Method in Visual SLAM Technology for Social Robots
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-37d44fd3-c11e-4ede-a2da-006965f0778f
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.