Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 5

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  semantic map
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
In this paper virtual environment modeling for training of unmanned vehicles’ (UGV and UAV) operators is shown. The model is based on real environment data gather using modern terrestrial 3D laser system Z+F IMAGER 5010. The method of data filtering and registration using modern GPGPU(General Purpose Graphic Processing Unit) for performance improvement is shown. Automatic conceptualization based on preprocessed data is described. The methodology of training is also discussed. The goal of the approach is to register 3D data, extract semantic information for each query point and segment the data into spatial concepts. These spatial concepts are used in the simulation of unmanned ground and aerial vehicles. The simulation uses Augmented Reality system for combining real video images with virtual objects. The system can combine real and virtual unmanned vehicles.
PL
W pracy przedstawiono wirtualne modelowanie środowiska dla szkolenia operatorów statków bezzałogowych, zarówna naziemnych, jak i powietrznych. Model ów jest oparty na danych środowiska rzeczywistego, zebranych przy pomocy nowoczesnego naziemnego systemu laserowego 3D Z+F IMAGER 5010. Pokazano również metodę filtrowania i rejestracji danych z użyciem GPGPU (General Purpose Graphic Processing Unit) (processor graficzny) dla poprawy działania. Opisano automatyczną konceptualizację opartą na wstępnie opracowanych danych. Przedyskutowano również metodę szkolenia. Celem takiej strategii jest zarejestrowanie danych 3D, wyodrębnienie informacji semantycznych dla każdego pytania i podział danych na przestrzenne koncepty. Te koncepty przestrzenne są następnie używane w symulacjach statków bezzałogowych. W symulacji zastosowano system rozszerzonej rzeczywistości w celu połączenia realnych obrazów video z obiektami wirtualnymi. System ten może łączyć zarówno wirtualne, jak i rzeczywiste statki bezzałogowe.
2
Content available Creating semantic maps from laser terrestrial data
EN
In this paper creating semantic maps based on laser terrestrial data is shown. Semantic map is based on transformed geometric data (3D laser range finder) into the data with assigned labels. This labels can help in several applications such as navigation of mobile robot by finding traversable and not traversable regions. Computation of large 3D data sets requires high computational power, therefore we proposed the GPU based (Graphic Processing Unit) implementation to decrease the computational time. As a result we demonstrate the computed semantic map for mobile robot navigation.
PL
W niniejszej pracy zostało przedstawione tworzenie map semantycznych na podstawie danych z naziemnego skaningu laserowego. Mapa semantyczna bazuje na danych pomiarowych z przypisanymi etykietami. Te etykiety mogą zostać wykorzystane w wielu aplikacjach, jak nawigacja robota mobilnego z wykorzystaniem podziału na regiony przejezdne i nieprzejezdne. Obliczenia dużych trójwymiarowych zbiorów danych wymaga zastosowania duże mocy obliczeniowej, dlatego zaproponowaliśmy implementację wykorzystującą GPU (Graphic Processing Unit), by zmniejszyć czas obliczeń. W rezultacie prezentujemy mapę semantyczną do nawigacji robota mobilnego.
PL
W artykule przedstawiono mobilny system tworzenia przestrzennej dokumentacji semantycznej. Zaproponowano nową metodę filtracji oraz rejestracji danych wykorzystującą obliczenia równoległe (NVIDIA FERMI). Opracowany system informatyczny umożliwia gromadzenie danych przestrzennych z wykorzystaniem geodezyjnego systemu pomiarowego 3D oraz pozwala na etykietowanie obiektów. Tworzona mapa semantyczna jest dostępna z poziomu dowolnego urządzenia mobilnego (laptop, smartphone, tablet).
EN
In this paper a new system for creating spatial semantic documentation is shown. We define semantic documentation as a result of integrating semantic mapping with a mobile 3D geodetic scanning system and a cloud computer system. This approach is possible by using semantic mapping State of the Art [2], modern scanning techniques [3] and parallel computing [4]. The main task of the system is representing the environment with concepts of objects highlighted in it. The results are distributed in a cloud. The phases of system operation are shown in Fig. 1. Each phase is described in detail in consecutive sections of the paper. Section 1 describes the thought process behind the system and data acquisition with a ZF 5010 laser scanner. In Section 2 a CUDA(NVIDIA FERMI) enhanced scan filtration method is shown. The next step of data preparation, merging of 3D point clouds, is described in Section 3. Section 4 concentrates on manual environment conceptualization (map with object concepts is shown in Fig. 4). Semantic documentation distribution and sharing are described in Section 5. The results can be shown on any PC, tablet, smartphone or smartTV device, by using SaaS(Software as a Service) approach and Citrix system. The paper finalizes with conclusions and plans for further system development. The system is a new approach to sharing information about the environment and it may be applied i.e. in Crisis Management for coordinating complicated rescue operations, in interior design and cataloguing etc.
EN
The paper concerns the algorithm of semantic mapping applied for automatic virtual scene generation. Data is acquired by a mobile robot equipped with 3D laser measurement system. The virtual scene composed by several entities and relations between them is the core of the proposed semantic simulation engine. Semantic mapping is still an open problem because of its complexity. There are several robotic applications that use semantic information to build complex environment maps with labeled entities therefore advanced robot behavior based on ontological information can be processed in high conceptual level. We are presenting a new approach that uses semantic mapping to generate physical model of an environment that is integrated with mobile robot simulator. Semantic map is generated based on 3D data acquired by a mobile robot in INDOOR environment. This raw data is transformed into a semantic map and then NVIDIA PhysX model is constructed. The PhysX model is used to perform an inspection intervention mobile robot simulation in which collision detection and rigid body simulation is available.
PL
W artykule przedstawiono algorytm budowy mapy semantycznej wykorzystanej w tworzeniu modelu otoczenia robota mobilnego na potrzeby symulacji. Dane gromadzone są za pomocą robota mobilnego wyposażonego w laserowy system pomiarowy 3D. Wirtualna scena zbudowana z kilku semantycznych elementów powiązanych zdefiniowanymi zależnościami jest rdzeniem zaproponowanego "silnika semantycznej symulacji". Budowa map semantycznych jest ciągle wyzwaniem ze względu na złożoność tego problemu. Istnieje wiele rozwiązań robotycznych wykorzystujących mapy semantyczne zawierające liczne elementy, na bazie której możliwe jest zaawansowane sterowanie robotem mobilnym wykorzystujące podejmowanie decyzji na wysokim poziomie abstrakcji. W pracy przedstawiona jest nowa realizacja mapy semantycznej służąca do automatycznego tworzenia fizycznego modelu zintegrowanego z symulacją robota mobilnego. Mapa semantyczna jest tworzona na podstawie danych 3D zebranych przez robota mobilnego pracującego w środowisku INDOOR. Dane są następnie przetransformowane wykorzystując mapę semantyczną do modelu fizycznego NVIDIA PhysX. Model fizyki jest wykorzystany do symulacji robota inspekcyjno interwencyjnego wykorzystującej wykrywanie kolizji oraz symulację brył sztywnych.
PL
W pracy przedstawiono wyniki badania powierzchni, po której przemieszcza się robot mobilny. Dane uzyskiwane są ze skanera laserowego 3D, zmieniany jest sposób reprezentacji - z biegunowej na kartezjańską. W kolejnym kroku dane 3D są zamieniane na kolorowy obraz 2D, który jest następnie poddawany procesom segmentacji i analizy. Klasyfikacja danych pomiarowych 3D jest przeprowadzana na podstawie wyników analizy obrazów i informacji metrycznej. Wyodrębniono następujące rodzaje powierzchni w pomieszczeniach zamkniętych: podłoga, schody, podesty, progi oraz powierzchnie typu trawa i chodnik, które znajdują się na zewnątrz budynków. Testy przeprowadzono w rzeczywistym środowisku przy pomocy robota Elektron z zamontowanym dalmierzem laserowym 3D.
EN
The paper presents the results of 3D data classification. The data obtained from 3D laser are transformed from the polar to the Cartesian coordinate system. The data is represented as a colored image. Then the image is analyzed. The classification of 3D data is performed based on the result of image segmentation and metric information. The experiments were performed in indoor and outdoor environments. The following objects were classified successfully: floor, stairs, grass, sideway.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.