Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 3

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  odometria wizyjna
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Dokładna lokalizacja jest bardzo ważna w wielu praktycznych zagadnieniach robotyki mobilnej. Często korzysta się z odometrii wizyjnej, obecnie powszechnie wykorzystującej kamery (sensory) RGB-D. W niniejszym artykule badana jest możliwość automatycznego doboru optymalnych parametrów prostego systemu odometrii wizyjnej RGB-D. Wykorzystano i porównano dwie metody optymalizacji oparte na populacji rozwiązań: algorytm genetyczny oraz algorytm roju cząstek. Zbadano wpływ poszczególnych parametrów na dokładność otrzymywanych estymat trajektorii sensora. Na tej podstawie wyciągnięto wnioski zarówno co do skuteczności i efektywności zastosowanych metod optymalizacji, jak i co do wpływu poszczególnych parametrów na dokładność estymat. Eksperymenty przeprowadzono przy wykorzystaniu publicznie dostępnych zestawów danych, aby zapewnić weryfikowalność prezentowanych wyników.
EN
In this paper, we investigate two population-based optimization methods as the means for optimization of the selected parameters in a visual odometry system using RGB-D data. One of the simplest and most used approaches to localization with RGB-D data is feature-based visual odometry that computes frame-to-frame rigid transformations of the sensor upon a sparse set of features and then concatenates these transformations into an estimate of the trajectory. This approach, yet simple, requires careful tuning of a number of parameters that control both the behavior of the feature detector, and the frame-to-frame rota-translation estimation algorithm. Therefore, we propose to employ robust and efficient soft computing optimization methods to find the best parameters for an exemplary RGB-D visual odometry system. We investigate and compare two approaches: the simple to implement particle swarm optimization algorithm, and a more complicated variant of the genetic algorithm. We seek a set of parameters that not only provide good results in terms of the estimated trajectory residual errors but are also applicable to different RGB-D datasets. Moreover, the optimization experiments make it possible to draw more general conclusions as to the role of particular building blocks of the visual odometry system (e.g. RANSAC) in achieving accurate trajectory estimates.
EN
The problem of position and orientation estimation for an active vision sensor that moves with respect to the full six degrees of freedom is considered. The proposed approach is based on point features extracted from RGB-D data. This work focuses on efficient point feature extraction algorithms and on methods for the management of a set of features in a single RGB-D data frame. While the fast, RGB-D-based visual odometry system described in this paper builds upon our previous results as to the general architecture, the important novel elements introduced here are aimed at improving the precision and robustness of the motion estimate computed from the matching point features of two RGB-D frames. Moreover, we demonstrate that the visual odometry system can serve as the front-end for a pose-based simultaneous localization and mapping solution. The proposed solutions are tested on publicly available data sets to ensure that the results are scientifically verifiable. The experimental results demonstrate gains due to the improved feature extraction and management mechanisms, whereas the performance of the whole navigation system compares favorably to results known from the literature.
PL
W artykule opisano implementację w układzie FPGA systemu, realizującego zadanie szacowania ruchu własnego urządzenia (np. robota mobilnego), wyposażonego w pojedynczą kamerę. Zrealizowano ją w architekturze hybrydowej, sprzętowo-programowej. W artykule przedstawiono szczegółowy opis wynikowej architektury, jak również użycie zasobów układu programowalnego, oraz analizę wydajności systemu, wraz z porównaniem z alternatywnym rozwiązaniem opartym o komputer PC.
EN
The paper presents implementation of the robot ego-motion estimation algorithm in a single FPGA. The input data for the algorithm are feature correspondences detected in the image sequence registered by a single camera. The implemented system, based on the Microblaze microprocessor along with a dedicated hardware coprocessor, performs all stages of the algorithm - computation of the essential matrix using the 8-point algorithm employing singular value decomposition, robust estimation of the correct essential matrix using the RANSAC algorithm as well as computation of the rotation matrix and the translation vector (up to a scale) from the essential matrix [1, 2]. The system was implemented in a Virtex 5 PFGA and is capable of working with a clock speed of 100MHz. The microprocessor is used to find successive essential matrices using singular value decomposition. The solutions are tested for correctness using the coprocessor with the RANSAC algorithm [3]. The coprocessor employs a reduced, 23-bit floating point number representation to reduce resource usage. Upon successful completion of the essential matrix estimation, rotation and translation are computed. Additional sensors are used to deal with rotation and translation sign ambiguity. Table 1 presents the summary of resources used for implementation. Figure 1 outlines the system architecture. The results obtained are satisfactory and promising. The availability of inexpensive, low power, small footprint solution for ego-motion estimation is desirable for many applications.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.