PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

RGB-DD: metody łączenia obrazów głębi oraz intensywości przez interpolację i fuzję danych w zadaniu SLAM

Identyfikatory
Warianty tytułu
EN
RGB-DD: methods of combining depth and intensity images
Języki publikacji
PL
Abstrakty
PL
Praca dotyczy zagadnienia identyfikacji danych głębi z danymi intensywności w zastosowaniu do zadania jednoczesnej samolokalizacji i budowy mapy otoczenia (ang. Simultaneous Localization and Mapping – SLAM). Integracja danych przeprowadzona została dla czujnika głębi o rozdzielczości obrazu znacząco mniejszej od rozdzielczości obrazu RGB. W artykule sprawdzono dwie metody zwiększania rozdzielczości. Jedna z nich wykorzystuje interpolację biliniową obrazu głębi podczas jego przeskalowywania, a druga opiera się na fuzji danych głębi oraz intensywności. Przetestowano jakość działanie obu metod podwyższania rozdzielczości w zadaniu SLAM. Porównanie podejść nastąpiło na podstawie eksperymentu, w którym zebrano dane z dwóch czujników głębi wraz z kamerą RGB oraz zarejestrowano trajektorię przemieszczenia czujników.
EN
In this paper the method of combining depth data with intensity images in the Simultaneous Localization and Mapping (SLAM) task is described. Data integration was performed for the depth sensor with substantially lower resolution than the RGB image. In this paper two methods of upsampling were tested. First one is using pure interpolation during upsampling, and the second one is based on data fusion guided by RGB image. The quality of selected methods was examined in a SLAM task. The comparison of these two methods was done experimentally, where data from depth and RGB sensors were gathered and the trajectory of the sensor movement was recorded.
Rocznik
Strony
417--426
Opis fizyczny
Bibliogr. 14 poz., rys., wykr.
Twórcy
autor
  • Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Piotrowo 3A, 60-965 Poznań
autor
  • Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Piotrowo 3A, 60-965 Poznań
  • Politechnika Poznańska, Instytut Automatyki i Inżynierii Informatycznej, Piotrowo 3A, 60-965 Poznań
Bibliografia
  • [1] D. Belter, P. Łabcki, P. Skrzypczyński. Estimating terrain elevation maps from sparse and uncertain multi-sensor data. In: Robotics and Biomimetics (ROBIO), 2012 IEEE International Conference on. Proceedings. Dec. 2012, s 715-722.
  • [2] D. Belter, M. Nowicki, P. Skrzypczyński. Accurate map-based RGB-D SLAM for mobile robots. In: Robot 2015: Second Iberian Robotics Conference - Advances in Robotics. Lisbon, Portugal, 19-21 November 2015, Volume 2. Proceedings Red. Luis Paulo Reis et al. Springer, 2015. wolumen 418 serii Advances in Intelligent Systems and Computing, s. 533-545.
  • [3] D. Belter, M. Nowicki, P. Skrzypczyński. Improving accuracy of feature-based RGB-D SLAM by modeling spatial uncertainty of point features. In: Proc. IEEE Int. Conf. on Robotics & Automation. Proceedings. Stockholm, 2016, s. 1279-1284.
  • [4] M. Bloesch et al. Fusion of optical flow and inertial measurements for robust egomotion estimation. In: Intelligent Robots and Systems (IROS 2014), 2014 IEEE/RSJ International Conference on. Proceedings, Sept. 2014, s. 3102-3107.
  • [5] J.- Y. Bouguet. Camera Calibration Toolbox for Matlab. http://www.vision.caltech.edu/bouguetj/calib_doc/ index. html. Accessed: 2016-04-17.
  • [6] N. Burrus. Kinect Calibration. http://nicolas.burrus.name/index.php/ Research/KinectCalibration. Accessed: 2016-04-17.
  • [7] D. Ferstl et al. Image Guided Depth Upsampling using Anisotropic Total Generalized Variation. ln: Proceedings International Conference on Computer Vision (ICCV), IEEE. Proceedings, December, 2013.
  • [8] D. Ferstl, M. Ruether, H. Bischof. Variational Depth Superresolution Using Example, Based Edge Representations. In: 2015 IEEE International Conference on Computer Vision (ICCV). Proceedings, Dec. 2015, s. 513-521.
  • [9] V. Kubelka et al. Robust Data Fusion of Multimodal Sensory Information for Mobile Robots. Journal of Field Robotics. 2015, wolumen 32, numer 4, s. 447-473.
  • [10] B. Langmann, K. Hartmann, O. Loffeld. Depth Camera Technology Comparison and Performance Evaluation. In: Proc. 1st Int. Conf. on Pattern Recognition Applications and Methods. Proceedings, 2012, wolumen 2, s. 438-444.
  • [11] O. Miksik et al. Incremental dense multi-modal 3D scene reconstruction. In: Intelligent Robots and Systems (IROS), 2015 IEEE/RSJ International Conference on. Proceedings, Sept, 2015, s. 908-15.
  • [12] S. T. Namin et al. Cutting Edge: Soft Correspondences in Multi modal Scene Parsing. In: 2015 IEEE International Conference on Computer Vision (ICCV). Proceedings, Dec, 2015, s. 1188-1196.
  • [13] D. Novak, R. Riener. A survey of sensor fusion methods in wearable robotics. Robotics and Autonomous Systems, 2015, wolumen 73, s. 155-170. Wearable Robotics.
  • [14] D. Ratasich et al. Generic sensor fusion package for ROS. In: Intelligent Robots and Systems (IROS), 2015 IEEE/RSJ International Conference on. Proceedings, Sept, 2015, s. 286-291.
Uwagi
PL
Opracowanie ze środków MNiSW w ramach umowy 812/P-DUN/2016 na działalność upowszechniającą naukę.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-36abaca8-8067-4db3-9067-ade5c96a4f44
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.