Identyfikatory
Warianty tytułu
Applications of the MSA algorithm (Multiple Similar Areas) for obtaining depth maps by using multi-view computer vision systems
Konferencja
XXVI cykl seminarów zorganizowanych przez PTETiS Oddział w Gdańsku ZASTOSOWANIE KOMPUTERÓW W NAUCE I TECHNICE 2016 (XXVI; 2016; Gdańsk)
Języki publikacji
Abstrakty
Artykuł podejmuje temat pozyskiwania map głębi (ang. depth map) na podstawie zdjęć z wielu kamer w wyniku widzenia stereoskopowego. Mapa głębi zawierająca odległości od obiektów będących w zasięgu widzenia kamer pozyskana może zostać na podstawie zdjęć z co najmniej dwóch kamer pełniących funkcję kamery stereoskopowej. W mapach głębi pozyskanych w ten sposób występują jednak błędy. Artykuł dotyczy metod redukcji błędów dzięki zwiększeniu liczby kamer. W artykule przedstawione zostało zastosowanie algorytmu MSA (Multiple Similar Areas) przeznaczonego do układu kamer o nazwie EBMCS (Equal Baseline Multiple Camera Set). Układ taki składa się z kamery środkowej oraz wielu kamer bocznych. Wykonywanie zdjęć trójwymiarowych za pomocą układu wielu kamer jest alternatywą do stosowania innego rodzaju urządzeń takich jak skanery światła strukturalnego oraz skanery laserowe typu LIDAR.
The paper described a method for obtaining depth maps on the basis of images from a set of multiple cameras with the use of stereoscopic vision. Depth maps contain data about distances from objects located in the field of view of camera. A depth map can be acquired from images from a pair of cameras which has a function of a stereo camera. However, depth maps obtained by this method contain errors. This paper proposes a method of reducing errors by increasing the number of cameras. The paper presents the usage of the MSA algorithm (Multiple Similar Areas) designed for a set of cameras arranged in the configuration called EBMCS (Equal Baseline Multiple Camera Set). The configuration consists of a central camera and multiple side cameras. Obtaining 3D images with the use of multi-camera systems is an alternative to using other kind of devices such as structured light scanners and equipment based on LIDAR (Light Detection and Ranging).
Rocznik
Tom
Strony
67--70
Opis fizyczny
Bibliogr. 9 poz., rys.
Twórcy
autor
- Politechnika Gdańska; Wydział Elektroniki, Telekomunikacji i Informatyki tel.: 58 347 13 78
Bibliografia
- 1. Gupta M., Yin Q., Nayar S. K.: Structured light in sunlight. In 2013 IEEE International Conference on Computer Vision, Sydney 2013, s. 545-552.
- 2. Kazmi W., Foix S., Alenya G.: Plant leaf imaging using time of flight camera under sunlight, shadow and room conditions, IEEE Int. Symp. on Robotic and Sensors Environments (ROSE), Magdeburg Germany 2012, s. 192-197.
- 3. Tse R. O., Gold C., Kidner D.: 3D City Modelling from LIDAR Data, Advances in 3D Geoinformation Systems, Springer Berlin Heidelberg, Springer-Verlag Berlin Heidelberg 2008, s. 161-175.
- 4. Kaczmarek A. L.: Widzenie komputerowe oparte na mnogości widoków, Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej 36, Gdańsk 2013, s.85-88.
- 5. Hartley R. I., Zisserman A.: Multiple View Geometry in Computer Vision, Cambridge University Press, 2004.
- 6. Park J.-I., Inoue S.: Acquisition of sharp depth map from multiple cameras, Signal Processing: Image Communication, 14(12), Elsevier 1998, s.7-19.
- 7. Kaczmarek A. L.: Improving depth maps of plants by using a set of five cameras, Journal of Electronic Imaging 24(2), SPIE and IS&T 2015, s. 023018.
- 8. Kaczmarek A. L.: Influence of Aggregating Window Size on Disparity Maps Obtained from Equal Baseline Multiple Camera Set (EBMCS), Image Processing and Communications Challenges 8: 8th International Conference, IP&C 2016 Bydgoszcz, Poland, September 2016 Proceedings, Springer International Publishing, s. 187-194, 2017.
- 9. Okutomi M., Kanade T.: A multiple-baseline stereo, IEEE Trans. on Pattern Analysis and Machine Intelligence, 15(4), 1993, s.353-363.
Uwagi
PL
Opracowanie ze środków MNiSW w ramach umowy 812/P-DUN/2016 na działalność upowszechniającą naukę.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-8ca96d1d-4b5b-4e8e-a7c7-f23258204f47