Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 5

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  self-localization
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Niniejsza praca stanowi próbę odpowiedzi na pytanie jak różne podejścia do zagadnienia przetwarzania danych RGB-D w systemie SLAM wpływają na jakość estymowanej trajektorii ruchu sensora umieszczonego na robocie mobilnym. Na podstawie wyników badań eksperymentalnych wyciągnięto wnioski co do odporności poszczególnych rozwiązań stosowanych w systemach SLAM na problemy charakterystyczne dla różnych klas robotów oraz typów środowiska.
EN
This paper evaluates six different RGB-D localization systems in the context of the application on mobile robots. Four systems under investigation represent state of the art approaches to SLAM, and they are compared to our new approach, called PUT SLAM and a baseline visual odometry system. We identify problems related to the specific data gathered in-motion by mobile robots and demonstrate robustness and accuracy of our new approach. The SLAM systems are evaluated applying she well-established methodologies, and using data sets which are made public to ensure that our results are verifiable.
EN
In this article a self-localization system for small mobile robots based on inexpensive cameras and unobtrusive, passive landmarks is presented and evaluated. The main contribution is the experimental evaluation of the hybrid field of view vision system for self-localization with artificial landmarks. The hybrid vision system consists of an omnidirectional, upward-looking camera with a mirror, and a typical, front-view camera. This configuration is inspired by the peripheral and foveal vision co-operation in animals. We demonstrate that the omnidirectional camera enables the robot to detect quickly landmark candidates and to track the already known landmarks in the environment. The front-view camera guided by the omnidirectional information enables precise measurements of the landmark position over extended distances. The passive landmarks are based on QR codes, which makes possible to easily include in the landmark pattern additional information relevant for navigation. We present evaluation of the positioning accuracy of the system mounted on a SanBot Mk II mobile robot. The experimental results demonstrate that the hybrid field of view vision system and the QR code landmarks enable the small mobile robot to navigate safely along extended paths in a typical home environment.
PL
Praca dotyczy zagadnienia określania położenia i orientacji sensora wizyjnego względem sześciu stopni swobody z wykorzystaniem cech punktowych wyodrębnionych z danych RGB-D. Skoncentrowano się na efektywnych algorytmach ekstrakcji cech w postaci punktów w przestrzeni trójwymiarowej oraz metodach zarządzania zbiorem cech otrzymanych z pojedynczego obrazu. Algorytmy i metody stanowiące główny wkład prezentowanej pracy w dziedzinę przetwarzania danych RGB-D przedstawiono w kontekście użycia w szybkim systemie odometrii wizyjnej. Przedstawiono wyniki badań eksperymentalnych wykorzystujących dwa publicznie dostępne zestawy danych RGB-D.
EN
This paper concerns the problem of a vision sensor's position and orientation computation with regard to the full six degrees of freedom, using point features extracted from RGB-D data. We focus on efficient point feature extraction algorithms and on methods for the feature set management in a single RGB-D data frame. While the fast, RGB-D-based visual odometry system described in this paper builds upon our previous results as to the general architecture, the important novel elements introduced here are aimed at improving the precision and robustness of the motion estimate computed from the matching point features of two RGB-D frames. The visual odometry system is tested on two publicly available data sets, demonstrating performance comparable to a much more complicated and computation intensive RGB-D SLAM method.
PL
Praca porusza problem estymacji transformacji przestrzennej pomiędzy kolejnymi pozycjami robota mobilnego. Transformacja wyznaczana jest na podstawie danych RGB-D uzyskanych z sensora Kinect w kolejnych pozycjach wzdłuż trajektorii ruchu robota. Bardzo duża liczba punktów w przestrzeni otrzymanych z sensora Kinect powoduje, że nie mogą być one przetwarzane w czasie rzeczywistym na większości komputerów pokładowych robotów mobilnych. Dlatego w pracy porównano dwie metody ekstrakcji punktów charakterystycznych (kluczowych) redukujących rozmiar zbioru danych: cechy oparte na detekcji w chmurze punktów 3D oraz cechy oparte na detekcji na dwuwymiarowym obrazie RGB. Metody te porównano pod względem czasu działania, skuteczności ekstrakcji punktów oraz dryftu estymaty pozycji robota na publicznie dostępnych zbiorach danych RGB-D.
EN
This paper addresses the problem of determining the egomotion between consecutive robot poses. The RGB-D Kinect sensor is used, which yields large amount of 3D points. It is impossible to process these data in realtime on most of the mobile robots. Thus, we present two approaches to point feature detection: 3D geometric features obtained from point clouds [9] and photometric 2D features detected in the RGB image [1]. Both methods are compared on publicly available RGB-D datasets [8, 10]. The detection on 2D image is the core of the currently state-of-the-art SLAM systems [3] while 3D features are an invention made especially for data captured by the Kinect-like sensors. First, it is demonstrated that both methods can be a part of a successful visual odometry system. Moreover, it is shown that detection of 2D image features is much faster than 3D, while the description is faster in case of 3D features (Tab. 1.). Performed experiments revealed that 3D geometric features tend to work better in environments of richer geometric structure (Tab. 2.) while method using photometric 2D features can be successfully expanded to additionally use 2D features detected on the depth image.
PL
W referacie zaprezentowano rozwiązania lokalizacji akustycznej w ujęciu rozproszonych czujników pracujących w konfiguracji sieci. Przedstawiono zagadnienia związane z namierzaniem źródeł dźwięku - w szczególności uzbrojenia, w zdecentralizowanych systemach lokacji. Szczególną uwagę zwrócono na rozwijający się nowy kierunek akustycznej lokacji wykorzystujący systemy rozproszone.
EN
This paper presents a solution of acoustic location in terms of distributed sensors working in the network configuration. Presented issues are related to the tracing of sound sources - in particular weapons, in decentralized locations systems. Special attention was given to describe new possibilities of acoustic location utilizing distributed systems.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.