Identyfikatory
Warianty tytułu
Comparing robot self-localization methods exploiting 2D and 3D features in RGB-D data
Języki publikacji
Abstrakty
Praca porusza problem estymacji transformacji przestrzennej pomiędzy kolejnymi pozycjami robota mobilnego. Transformacja wyznaczana jest na podstawie danych RGB-D uzyskanych z sensora Kinect w kolejnych pozycjach wzdłuż trajektorii ruchu robota. Bardzo duża liczba punktów w przestrzeni otrzymanych z sensora Kinect powoduje, że nie mogą być one przetwarzane w czasie rzeczywistym na większości komputerów pokładowych robotów mobilnych. Dlatego w pracy porównano dwie metody ekstrakcji punktów charakterystycznych (kluczowych) redukujących rozmiar zbioru danych: cechy oparte na detekcji w chmurze punktów 3D oraz cechy oparte na detekcji na dwuwymiarowym obrazie RGB. Metody te porównano pod względem czasu działania, skuteczności ekstrakcji punktów oraz dryftu estymaty pozycji robota na publicznie dostępnych zbiorach danych RGB-D.
This paper addresses the problem of determining the egomotion between consecutive robot poses. The RGB-D Kinect sensor is used, which yields large amount of 3D points. It is impossible to process these data in realtime on most of the mobile robots. Thus, we present two approaches to point feature detection: 3D geometric features obtained from point clouds [9] and photometric 2D features detected in the RGB image [1]. Both methods are compared on publicly available RGB-D datasets [8, 10]. The detection on 2D image is the core of the currently state-of-the-art SLAM systems [3] while 3D features are an invention made especially for data captured by the Kinect-like sensors. First, it is demonstrated that both methods can be a part of a successful visual odometry system. Moreover, it is shown that detection of 2D image features is much faster than 3D, while the description is faster in case of 3D features (Tab. 1.). Performed experiments revealed that 3D geometric features tend to work better in environments of richer geometric structure (Tab. 2.) while method using photometric 2D features can be successfully expanded to additionally use 2D features detected on the depth image.
Wydawca
Czasopismo
Rocznik
Tom
Strony
845--848
Opis fizyczny
Bibliogr. 10 poz., rys., tab., wykr.
Twórcy
autor
- Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Plac Marii Skłodowskiej-Curie 5, 60-965 Poznań
Bibliografia
- [1] Bay H., Ess A., Tuytelaars T., Van Gool L.: Speeded-Up Robust Features (SURF). Comput. Vis. Image Underst., vol. 110(3), p. 346-359, 2008.
- [2] Choi S., Kim T., Yu W.: Performance evaluation of RANSAC family. Proc. British Machine Vision Conference, p. 81.1-81.12, 2009.
- [3] Endres F., Hess J., Engelhard N., Sturm J., Cremers D., Burgard W.: An Evaluation of the RGB-D SLAM System. Proc. IEEE Int. Conf. on Robot. and Automat., p. 1691–1696, 2012.
- [4] Fraundorfer F., Scaramuzza D.: Visual odometry: Part II - matching, robustness and applications. IEEE Robotics & Automation Magazine, 19(2), p. 78–90, 2012.
- [5] Kabsch W.: A solution of the best rotation to relate two sets of vectors. Acta Crystallographica 32:922, 1976.
- [6] Nowicki M., Skrzypczynski P.: Eksperymentalna weryfikacja metody samolokalizacji robota kroczacego z sensorem Kinect. Prace Naukowe Politechniki Warszawskiej, vol. 2, p. 561–572, 2012.
- [7] Rosten E., Drummond T.: Machine learning for high-speed corner detection. Proc. European Conference on Computer Vision, vol. 1, p. 430–443, 2006.
- [8] Schmidt A., Fularz M., Kraft M., Kasiński A., Nowicki M.: An indor RGB-D dataset for the evaluation of robot navigation algorithms. Lecture Notes in Computer Science, vol. 8192, p. 321-329, 2013.
- [9] Steder B., Rusu R. B., Konolige K., Burgard W.: Point feature extraction on 3D range scans taking into account object boundaries. Proc. IEEE Int. Conf. on Robot. and Automat., p. 2601–2608, 2011.
- [10] Sturm J., Engelhard N., Endres F., Burgard W., Cremers D.: A Benchmark for the Evaluation of RGB-D SLAM System. Proc. IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, p. 573–580, 2012.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-9d96a781-acbd-44df-b96e-93c511cc4eb4