Powiadomienia systemowe
- Sesja wygasła!
- Sesja wygasła!
- Sesja wygasła!
- Sesja wygasła!
Tytuł artykułu
Autorzy
Identyfikatory
Warianty tytułu
Efficient RGB-D data processing for point-feature-based self-localization
Języki publikacji
Abstrakty
Praca dotyczy zagadnienia określania położenia i orientacji sensora wizyjnego względem sześciu stopni swobody z wykorzystaniem cech punktowych wyodrębnionych z danych RGB-D. Skoncentrowano się na efektywnych algorytmach ekstrakcji cech w postaci punktów w przestrzeni trójwymiarowej oraz metodach zarządzania zbiorem cech otrzymanych z pojedynczego obrazu. Algorytmy i metody stanowiące główny wkład prezentowanej pracy w dziedzinę przetwarzania danych RGB-D przedstawiono w kontekście użycia w szybkim systemie odometrii wizyjnej. Przedstawiono wyniki badań eksperymentalnych wykorzystujących dwa publicznie dostępne zestawy danych RGB-D.
This paper concerns the problem of a vision sensor's position and orientation computation with regard to the full six degrees of freedom, using point features extracted from RGB-D data. We focus on efficient point feature extraction algorithms and on methods for the feature set management in a single RGB-D data frame. While the fast, RGB-D-based visual odometry system described in this paper builds upon our previous results as to the general architecture, the important novel elements introduced here are aimed at improving the precision and robustness of the motion estimate computed from the matching point features of two RGB-D frames. The visual odometry system is tested on two publicly available data sets, demonstrating performance comparable to a much more complicated and computation intensive RGB-D SLAM method.
Rocznik
Tom
Strony
245--256
Opis fizyczny
Bibliogr. 20 poz., rys., tab., wykr.
Twórcy
autor
- Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Piotrowo 3A, 60-965 Poznań
autor
- Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Piotrowo 3A, 60-965 Poznań
autor
- Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Piotrowo 3A, 60-965 Poznań
autor
- Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Piotrowo 3A, 60-965 Poznań
Bibliografia
- [1] K. S. Arun, T. S. Huang, S. Blostein, Least-squares fitting of two 3-D point sets, IEEE Trans. on Pattern Analysis and Machine Intell., 9(5), 1987, s. 698-700.
- [2] A. Bachrach, S. Prentice, R. He, P. Henry, A. Huang, M. Krainin, D. Maturana, D. Fox, N. Roy, Estimation, planning, and mapping for autonomous flight using an RGB-D camera in GPS-denied environments, Int. Journal of Robot. Res., 31(11), 2012, s. 1320-1343.
- [3] S. Baker, I. Matthews, Lucas-Kanade 20 years on: A unifying framework, Int. Journal of Computer Vision, 56(3), 2004, s. 221-255.
- [4] F. Endres, J. Hess, N. Engelhard, J. Sturm, D. Cremers, W. Burgard, An evaluation of the RGB-D SLAM system, In Proc. IEEE Int. Conf. on Robot. And Automat., St. Paul, 2012, s. 1691-1696.
- [5] M. Ester, H.-P. Kriegel, J. Sander, X. Xu, A density-based algorithm for discovering clusters in large spatial databases with noise, In Proc. Int. Conf. On Knowledge Discovery and Data Mining, 1996, s. 226-231.
- [6] R. Hartley, A. Zisserman, Multiple view geometry in computer vision, Cambridge Univ. Press, 2004.
- [7] Ł. Ilnicki, B. Siemiątkowska, Algorytm łączenia chmur punktów na podstawie informacji wizualno-metrycznej, Zeszyty Naukowe Politechniki Warszawskiej. Postępy robotyki (red. K. Tchoń, C. Zieliński), Warszawa, 2012, s. 207-216.
- [8] C. Kerl, J. Sturm, D. Cremers, Robust odometry estimation for RGB-D cameras, In Proc. IEEE Int. Conf. on. Robot. and Automat., Karlsruhe, 2013, s. 3748-3754.
- [9] E. Nascimento, G. Oliveira, M. Campos, A. Vieira, W. Schwartz, BRAND: A robust appearance and depth descriptor for RGB-D images, In Proc. IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, Vilamoura, 2012, s. 1720-1726.
- [10] M. Nowicki, P. Skrzypczyński, Experimental Verification of a Walking Robot Self-Localization System with the Kinect Sensor, Journal of Automation, Mobile Robotics and Intelligent Systems, Vol. 7, No. 4 , 2013, s. 42-51.
- [11] M. Nowicki, P. Skrzypczyński, Combining photometric and depth data for lightweight and robust visual odometry, In Proc. European Conf. on Mobile Robots, Barcelona, 2013. s. 125-130.
- [12] E. Rosten, T. Drummond, Machine learning for high-speed corner detection, In Proc. European Conf. on Comp. Vis., 2006, s. 430-443.
- [13] R. B. Rusu, N. Blodow, Z. Marton, M. Beetz, Aligning point cloud views using persistent feature histograms, In Proc. IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, Nice, 2008, s. 3384-3391.
- [14] D. Scaramuzza, F. Fraundorfer, Visual odometry: Part I - the first 30 years and fundamentals, IEEE Robotics and Automation Magazine, 18(4), 2011, s. 80-92.
- [15] A. Schmidt, M. Kraft, M. Fularz, Z. Domagała, Comparative assessment of point feature detectors in the context of robot navigation, Journal of Automation, Mobile Robotics & Intelligent Systems, 7(1), 2013, s. 11-20.
- [16] A. Schmidt, M. Fularz, M. Kraft, A. Kasiński, M. Nowicki, An indor RGB-D dataset for the evaluation of robot navigation algorithms, In Advanced Concepts for Intelligent Vision Systems, LNCS 8192, Berlin, Springer, 2013, s. 321-329.
- [17] J. Shi, C. Tomasi, Good features to track, In Proc. IEEE Conf. on Comp. Vis. And Pattern Recog., Seattle, 1994, s. 593-600.
- [18] B. Steder, R. B. Rusu, K. Konolige, W. Burgard, Point feature extraction on 3D range scans taking into account object boundaries, In P roc. IEEE Int. Conf. On Robot. and Automat., Shanghai, 2011, s. 2601-2608.
- [19] J. Sturm, N. Engelhard, F. Endres, W. Burgard, D. Cremers, A benchmark for the evaluation of RGB-D SLAM systems, In Proc. IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, Vilamoura, 2012, s. 573-580.
- [20] T. Whelan, H. Johannsson, M. Kaess, J. J. Leonard, J. B. McDonald, Robust real-time visual odometry for dense RGB-D mapping, In Proc. IEEE Int. Conf. on Robot. and Automat., Karlsruhe, 2013, s. 5704-5711.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-3b93fbd7-5b77-4ccc-beec-f3ec9e59dd37