Ten serwis zostanie wyłączony 2025-02-11.
Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 4

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  visual odometry
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
In this paper we investigate methods for self-localisation of a walking robot with the Kinect 3D active range sensor. The Iterative Closest Point (ICP) algorithm is considered as the basis for the computation of the robot rotation and translation between two viewpoints. As an alternative, a feature-based method for matching of 3D range data is considered, using the Normal Aligned Radial Feature (NARF) descriptors. Then, it is shown that NARFs can be used to compute a good initial estimate for the ICP algorithm, resulting in convergent estimation of the sensor egomotion. Experimental results are provided.
EN
The mathematic model of errors in correlation with the extreme navigation system (CENS) is developed basing on odometry and geo-referencing channels. The realization of the model is done in Simulink, and based on regular and random components of additive noise. The results of simulations prove accumulation of errors for odometry errors and its mitigation in case of geo-referencing in periods of correction.
EN
The mathematic model of errors in correlation with the extreme navigation system (CENS) is developed basing on odometry and geo-referencing channels. The realization of the model is done in Simulink, and based on regular and random components of additive noise. The results of simulations prove accumulation of errors for odometry errors and its mitigation in case of geo-referencing in periods of correction.
PL
Dokładna lokalizacja jest bardzo ważna w wielu praktycznych zagadnieniach robotyki mobilnej. Często korzysta się z odometrii wizyjnej, obecnie powszechnie wykorzystującej kamery (sensory) RGB-D. W niniejszym artykule badana jest możliwość automatycznego doboru optymalnych parametrów prostego systemu odometrii wizyjnej RGB-D. Wykorzystano i porównano dwie metody optymalizacji oparte na populacji rozwiązań: algorytm genetyczny oraz algorytm roju cząstek. Zbadano wpływ poszczególnych parametrów na dokładność otrzymywanych estymat trajektorii sensora. Na tej podstawie wyciągnięto wnioski zarówno co do skuteczności i efektywności zastosowanych metod optymalizacji, jak i co do wpływu poszczególnych parametrów na dokładność estymat. Eksperymenty przeprowadzono przy wykorzystaniu publicznie dostępnych zestawów danych, aby zapewnić weryfikowalność prezentowanych wyników.
EN
In this paper, we investigate two population-based optimization methods as the means for optimization of the selected parameters in a visual odometry system using RGB-D data. One of the simplest and most used approaches to localization with RGB-D data is feature-based visual odometry that computes frame-to-frame rigid transformations of the sensor upon a sparse set of features and then concatenates these transformations into an estimate of the trajectory. This approach, yet simple, requires careful tuning of a number of parameters that control both the behavior of the feature detector, and the frame-to-frame rota-translation estimation algorithm. Therefore, we propose to employ robust and efficient soft computing optimization methods to find the best parameters for an exemplary RGB-D visual odometry system. We investigate and compare two approaches: the simple to implement particle swarm optimization algorithm, and a more complicated variant of the genetic algorithm. We seek a set of parameters that not only provide good results in terms of the estimated trajectory residual errors but are also applicable to different RGB-D datasets. Moreover, the optimization experiments make it possible to draw more general conclusions as to the role of particular building blocks of the visual odometry system (e.g. RANSAC) in achieving accurate trajectory estimates.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.