Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 5

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  samolokalizacja
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Niniejsza praca stanowi próbę odpowiedzi na pytanie jak różne podejścia do zagadnienia przetwarzania danych RGB-D w systemie SLAM wpływają na jakość estymowanej trajektorii ruchu sensora umieszczonego na robocie mobilnym. Na podstawie wyników badań eksperymentalnych wyciągnięto wnioski co do odporności poszczególnych rozwiązań stosowanych w systemach SLAM na problemy charakterystyczne dla różnych klas robotów oraz typów środowiska.
EN
This paper evaluates six different RGB-D localization systems in the context of the application on mobile robots. Four systems under investigation represent state of the art approaches to SLAM, and they are compared to our new approach, called PUT SLAM and a baseline visual odometry system. We identify problems related to the specific data gathered in-motion by mobile robots and demonstrate robustness and accuracy of our new approach. The SLAM systems are evaluated applying she well-established methodologies, and using data sets which are made public to ensure that our results are verifiable.
PL
Praca porusza problem estymacji transformacji przestrzennej pomiędzy kolejnymi pozycjami robota mobilnego. Transformacja wyznaczana jest na podstawie danych RGB-D uzyskanych z sensora Kinect w kolejnych pozycjach wzdłuż trajektorii ruchu robota. Bardzo duża liczba punktów w przestrzeni otrzymanych z sensora Kinect powoduje, że nie mogą być one przetwarzane w czasie rzeczywistym na większości komputerów pokładowych robotów mobilnych. Dlatego w pracy porównano dwie metody ekstrakcji punktów charakterystycznych (kluczowych) redukujących rozmiar zbioru danych: cechy oparte na detekcji w chmurze punktów 3D oraz cechy oparte na detekcji na dwuwymiarowym obrazie RGB. Metody te porównano pod względem czasu działania, skuteczności ekstrakcji punktów oraz dryftu estymaty pozycji robota na publicznie dostępnych zbiorach danych RGB-D.
EN
This paper addresses the problem of determining the egomotion between consecutive robot poses. The RGB-D Kinect sensor is used, which yields large amount of 3D points. It is impossible to process these data in realtime on most of the mobile robots. Thus, we present two approaches to point feature detection: 3D geometric features obtained from point clouds [9] and photometric 2D features detected in the RGB image [1]. Both methods are compared on publicly available RGB-D datasets [8, 10]. The detection on 2D image is the core of the currently state-of-the-art SLAM systems [3] while 3D features are an invention made especially for data captured by the Kinect-like sensors. First, it is demonstrated that both methods can be a part of a successful visual odometry system. Moreover, it is shown that detection of 2D image features is much faster than 3D, while the description is faster in case of 3D features (Tab. 1.). Performed experiments revealed that 3D geometric features tend to work better in environments of richer geometric structure (Tab. 2.) while method using photometric 2D features can be successfully expanded to additionally use 2D features detected on the depth image.
PL
Praca dotyczy zagadnienia określania położenia i orientacji robota kroczącego wyposażonego w sensor Kinect. Pomiary odległości 3D mogą być do siebie dopasowywane, co pozwala określić przesunięcie i obrót między układami sensora w kolejnych pozycjach robota. Przy założeniu znajomości pozycji początkowej procedura ta może służyć inkrementalnej samolokalizacji robota. Przedstawiono procedurę dopasowywania chmur punktów za pomocą dwóch metod: algorytmu iteracyjnego dopasowywania najbliższych punktów oraz metody wykorzystującej cechy punktowe w obrazach odległościowych. Zaproponowano połączenie obu metod oraz uwzględnienie dodatkowych ograniczeń wynikających z charakteru ruchu robota. Przedstawiono wyniki doświadczeń potwierdzających skuteczność zaproponowanych rozwiązań.
EN
In this paper we investigate methods for self-localization of a walking robot with the Kinect 3D active range sensor. The Iterative Closest Point (ICP) algorithm is considered as the basis for the computation of the robot rotation and translation between two viewpoints. As an alternative, a feature-based method for matching of 3D range data is considered, using the Normal Aligned Radial Feature (NARF) descriptors. Then, it is shown that NARFs can be used to compute a good initial estimate for the ICP algorithm, resulting in convergent estimation of the sensor motion. Results obtained in a controlled environment and on a real walking robot are presented.
PL
Artykuł przedstawia próbę rozwiązania problemu optymalizacji współpracy robota mobilnego oraz infrastruktury nawigacyjnej związanej z otoczeniem w zadaniu samolokalizacji. Rozważane są dwa rodzaje sensorów: kamery monitorujące obserwujące robota z zewnątrz oraz kamera pokładowa wykorzystywana do pozycjonowania przy użyciu sztucznych znaczników rozmieszczonych w otoczeniu. Dysponując wiedzą o położeniu kamer monitorujących i sztucznych znaczników robot mobilny wykorzystuje analityczne modele niepewności sensorów do zaplanowania optymalnej sekwencji akcji pozycjonujących. Zaprezentowano wyniki badań symulacyjnych i eksperymentalnych.
EN
This article studies positioning action planning issues for a mobile robot co-operating with an external infrastructure supporting its navigation tasks. The infrastructure consists of a number of stationary sensors (cameras) and artificial navigation aids (landmarks) placed in the environment. Analytical uncertainty models used in vision-based positioning are developed. An action planning procedure, taking into account in an exact way both the action cost and the positioning uncertainty is presented. Results of simulations and experiments are reported.
5
Content available remote Analiza obrazów cyfrowych do dyskretnej samolokalizacji
PL
Podano probabilistyczny model dyskretnej samolokalizacji autonomicznego pojazduw wewnętrznym srodowisku, wykorzystujacy oparte na uczeniu (adaptacji) metody analizy obrazu cyfrowego.Dzieki danym pochodzącym z systemu pomiaru ruchu pojazdu, automatycznie nauczonemu modelowi sceny i obróbce kolejnych obrazów okreslana jest dla każdego obrazu dyskretna wartość położenia pojazdu (stanu) metoda probabilistyczną odświeżania rozkładu dopuszczalnych stanów. Opisano dwie przykładowe implementacje modelu, proponująxc reprezentacje sceny oparte o różne cechy obrazu: (1) charakterystyka histogramu obrazu i (2) 3-wymiarowa informacja związana z elementami obrazu.
EN
A probabilistic model of the discrete self-localization process is described. It is useful to autonomous navigation in an indoor environment. The model employs learning and adaptation methods of digital image analysis, and it distinguishes between the automatic scene model acquistion (learning) phase and the (sel-localization) phase. The discrete character of the scene model means that there exists a finite number of posible (position and directions) of the autonomous system. The analysis of current images and the available data about the mobile system movement allows to recursive estimate the conditional probabilities of all possible states (conditioned upon the sequence of detected image features) and to select the most probable state. Two examples of the self-localization implementations process are described.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.