Powiadomienia systemowe
- Sesja wygasła!
- Sesja wygasła!
- Sesja wygasła!
Tytuł artykułu
Autorzy
Identyfikatory
Warianty tytułu
Place classification using the Demster-Shafer method
Języki publikacji
Abstrakty
Celem pracy jest przedstawienie algorytmu klasyfikacji miejsc wykorzystując teorię Dempstera-Shafera. Zaproponowany algorytm składa się z dwóch etapów: fazy uczenia oraz klasyfikacji pomieszczeń na podstawie występujących w tych pomieszczeniach obiektów. W przeciwieństwie do większości metod nie zakładamy świata zamkniętego, tzn. w przypadku braku dostatecznych przesłanek udzielana jest odpowiedź 'nie wiem'. Opisywana metoda została przetestowana w rzeczywistym otoczeniu w budynku wydziału Mechatroniki Politechniki Warszawskiej oraz wykorzystując publiczną bazę danych udostępnioną przez MIT.
The paper presents a method of semantic labeling of the environment of a mobile indoor robot. In our approach we proposed a novel method of places classification. Rooms are classified based on objects which have been recognized by sensors. Each object (or sets of objects) votes for a set of classes of rooms. Data aggregation is performed using Dempster-Shafer theory (DST), which can be regarded as a generalization of the Bayesian theory. The experiments performed in real office environment and using simulation proved the efficiency of our approach.
Rocznik
Tom
Strony
457--466
Opis fizyczny
Bibliogr. 25 poz., rys., tab., wykr.
Twórcy
autor
- Wydział Mechatroniki, Politechnika Warszawska, ul. A. Boboli 18, Warszawa
Bibliografia
- [1] hltps://www.tensorflow.org/.
- [2] P. Althaus, H. I. Christensen. Behavior coordination in structured environments. Advanced Robotics, 2003, wolumen 17, numer 7, s. 657-674.
- [3] D. Anguelov et at. Learning hierarchical object maps of non-stationary environments with mobile robots. In: Proceedings of the 17th Annual Conference on Uncertainty in Al (UAI). Proceedings, Edmonton, Canada, 2002.
- [4] P. L Bogler. Shafer-Dempster reasoning with applications to multisensor target identification systems. IEEE Tran s actions on Systems, Man, and Cybernetics, 1987, wolumen 17, s. 968-977.
- [5] P. Buschka, A. Saffiotti. A virtual sensor for room detection. In: Intelligent Robots and Systems (IROS). Proceedings, 2002, s. 637-642.
- [6] Zetao Chen et at. Convolutional neural networkt-based place recognition. CoRR, 2014, wolumen abs/1411.1509.
- [7] B. Chokr, V. Kreinovich . How far are we from complete knowledge, complexity of knowledge acquisition in the Dempster-Shafer approach. Advances in the Dempster-Shafer Theory of Evidence, 1994, s. 555-576.
- [8] F. Dellaert et al. Monte Carlo localization for mobile robots. In: IEEE Int. Conf. on Robotics & Automation (ICRA). Proceedings, 1998.
- [9] Bogdan Harasymowicz-Boggio, Łukasz Chechliński, Barbara Siemiątkowska. Nature-inspired, parallel object recognition. In: Progress in Automation, Robotics and Measuring Techniques. Control and Automation. Advances in Intelligent Systems and Computing vol. 350. Proceedings Red. Roman Szewczyk, Cezary Zielinski, Małgorzata Kaliczyńska. Springer, 2015, s. 53-62.
- [10] Bogdan Harasymowicz-Boggio, Łukasz Chechliński, Barbara Siemiątkowska. Significance of features in object recognition using depth sensors. Optica Applicata, 2015, wolumen 45, numer 4, s. 559-571.
- [11] I. Ilnicki, B. Siemiątkowska. Algorytm łączenia chmur punktów na podstawie informacji wizualno-metrycznej. In: Krajowa Konferencja Robotyki. Proceedings, 2012.
- [12] Sven Koenig, Reid G. Simmons. Xavier: A robot navigation architecture based on partially observable Markov decision process models. In: Artificial Intelligence Based Mobile Robotics: Case Studies of Successful Robot Systems. Proceedings. MIT Press, 1998, s. 91-122.
- [13] K. Konolige et at. View-based maps. In: Proceedings of Robotics : Science and Systems. Proceedings, Seattle, USA, June, 2009.
- [14] Michael Milford et al. Condition-invariant, top-down visual place recognition. In: The IEEE International Conference on Robotics and Automation (ICRA). Proceedings, June, 2014.
- [15] O. M. Mozos et al. Supervised semantic labeling of places using information extracted from sensor data. Robotics and Autonomous Systems. 2007, wolumen 5, s. 392-402.
- [16] Sageev Oore, Geoffrcy E. Hinton, Gregory Dudek. A mobile robot that learns its place. Neural Computation (NECO), 1997, wolumen 9, numer 3, s. 683-699.
- [17] J. Prankl et al. Rgb-d object modelling for object recognition and tracking. In: Intelligent Robots and Systems (IROS), 2015 IEEE/RSJ International Conference on. Proceedings, Sept. 2015, s. 96-Ł03.
- [18] Janusz. W. Racz, Artur Dubrawski. Artificial neural network for mobile robot topological localization. Robotics and Autonomous Systems, 1995, wolumen 16, numer 1, s. 73-80.
- [19] Laura Walker Renninger, Jitendra Malik. When is scene identification just texture recognition? Vision Research, September, 2004, wolumen 44, numer 19, s. 2301-2311.
- [20] B. Siemiątkowska, B. Harasymowicz-Boggio, Ł. Chechliński. Semantic place labeling method. Journal of Automation Mobile Robotics and Intelligent Systems, 2015. wolumen 9.
- [21] Antonio Torralba. Contextual priming for object detection. Int. J. Comput. Vision, Lipiec, 2003, wolumen 53, numer 2, s. 169-191.
- [22] M. M. Ullah et al. Towards robust place recognition for robot localization. In: Proceedings of the IEEE International Conference on Robotics and Automation (ICRA08). Proceedings, 2008.
- [23] Shrihari Vasudevan, Roland Siegwart. Bayesian space conceptualization and place classification for semantic maps in mobile robotics. Robot. Auton. Syst., Czerwiec, 2008. wolumen 56, numer 6, s. 522-537.
- [24] Chuho Yi et al. Bayesian robot localization using spatial object con texts. In: 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems, October 11-15. 2009. St. Louis, MO, USA. Proceedings, 2009, s. 3467-3473.
- [25] B. Zhou et al. Learning Deep Features for Scene Recognition using Places Database. NIPS, 2014.
Uwagi
PL
Opracowanie ze środków MNiSW w ramach umowy 812/P-DUN/2016 na działalność upowszechniającą naukę.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-bf5ac607-20de-4744-9f17-ac86f4d29bf1