Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  3D mapping
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Unmanned Aerial Vehicles (UAVs), commonly known as drones are increasingly being used for three dimensional (3D) mapping of the environment. This study utilised UAV technology to produce a revised 3D map of the University of Lagos as well as land cover change detection analysis. A DJI Phantom 4 UAV was used to collect digital images at a flying height of 90 m, and 75% fore and 65% side overlaps. Ground control points (GCPs) for orthophoto rectification were coordinated with a Trimble R8 Global Navigation Satellite System. Pix4D Mapper was used to produce a digital terrain model and an orthophoto at a ground sampling distance of 4.36 cm. The change detection analysis, using the 2015 base map as reference, revealed a significant change in the land cover such as an increase of 16,306.7 m2 in buildings between 2015 and 2019. The root mean square error analysis performed using 7 GCPs showed a horizontal and vertical accuracy of 0.183 m and 0.157 m respectively. This suggests a high level of accuracy, which is adequate for 3D mapping and change detection analysis at a sustainable cost.
EN
In this paper the 3D SLAM solution for indoor inspection tasks with wheeled mobile robots is introduced. The application is regarded to exploring and map creating in multi-level buildings with usage of differential drive robots. Working environment is represented as three-dimensional occupancy grid map, that constructed by laser rangefinder sensor system and octrees. Robot's base frame displacement and orientation is given from visual odometry and inertial navigation system feedback. The pose estimation process is based on combined particular and Gaussian filtering techniques. The whole SLAM system is implemented in ROS framework in accordance with multi-agent extension requirements, and therefore might be used for a mobile robot group applications.
EN
From technological point of view BIM includes a set of procedures for spatial modeling of designed building structures to support modern design, construction and operation techniques from the early stage of life of a new object. The basis for BIM design is shaping the three-dimensional body of the object, including its technical equipment, supported by its spatial visualization. Thanks to it, the design process of the structure is complemented by currently created views that can be used in the decision-making process and conflict situations. Observation of the project in the background of its surroundings allows also assessing the feasibility of its implementation in relation to objects related to the place of its final location. The method of such observation is currently referred to as a virtual or augmented reality (VR or AR) and is based on 3D visualization techniques. In order to meet the requirements of spatial visualization, the way the map for design purposes is made must ensure its three-dimensional location in the field. Thanks to this, also invisible terrain content will be visible in the VR/AR mode, which should be conducive to the detection of spatial collisions and the optimal location of new networks and devices in the increasingly complex underground reality. It will also be possible to detect map errors as well as the newly designed object as soon as possible. This needs not only to see not only the map or design in real environment, but all mentioned components have to reference to each other. Such approach is sometimes called Extended or Mixed Reality (XR or MR). The subject of this publication is the introduction to the issue of this aspect of XR/MR applications and the indication of directions of 3D mapping development in accordance with the requirements for the form and content of the map for design purposes.
PL
Referat przedstawia nowe algorytmy 6DSLAM w zastosowaniu do zrobotyzowanego mobilnego systemu mapowania 3D. W ramach pracy nad systemem mapowania opracowano architekturę algorytmu 6DSLAM umożliwiającą zastosowanie różnych technik rejestracji danych. Algorytm składa się z modułu iteracyjnej rejestracji danych, przy czym zaimplementowano następujące metody ICP (ang. Iterative Closest Point). ICP punkt do rzutu punktu (ang. ICP point to projection), ICP wykorzystujące semantyczną dyskryminację punktów (semantic ICP), LS3D (ang. Least Square Surface Matching). NDT (ang. Normal Distributions Transform). Algorytm realizuje także zagadnienie zamknięcia pętli za pomocą metod LUM oraz LS3D. Wprowadzono autorską modyfikację metody LUM poprzez implementację różnych technik wyznaczania najbliższych sąsiadów w tym punkt do punktu, punkt do rzutu a także wykorzystujące semantyczną dyskryminację punktów. Implementacje oparto o modyfikację istniejących rozwiązań: 3DTK oraz PCL oraz o autorską implementację wykorzystującą obliczenia równolegle z zastosowaniem biblioteki NVIDIA CUDA 7.5. Przedstawiono eksperymenty weryfikujące zasadność zastosowania poszczególnych metod biorąc pod uwagę praktyczne zastosowania.
EN
This work concerns new 6DSLAM algorithms with application of robotic mobile 3D mapping system. New architecture of 6DSLAM algorithm is designed to make possible reconfigure algorithm for different registration techniques. Algorithm is composed of iterative registration component, thus ICP (Iterative Closest Point), ICP (point to projection). ICP with semantic discrimination of points, LS3D (Least Square Surface Matching), NDT (Normal Distribution Transform) can be chosen. Loop closing is based on LUM and LS3D. New modification of LUM method is proposed, thus it is based on novel nearest neighbourhood search implementations such as point to point, point to projection, semantic discrimination of points. Implementation is based on modified 3DTK and PCL frameworks and novel parallel programming techniques using NVIDIA CUDA 7.5. Paper shows experiments that are demonstrating advantages of proposed approach in relation to practical applications.
5
Content available Segmentacja danych otrzymanych z lasera 3D
PL
Otoczenie robota - wnętrze budynku jak i obszar znajdujący się na zewnątrz może być podzielony na fragmenty, którym następnie możemy przypisać pewne znaczenie semantyczne. Przed przystąpieniem do dokonywania klasyfikacji należy jednak dokonać filtracji i segmentacji danych pomiarowych. W poniższym artykule przedstawione zostaną wyniki segmentacji chmury punktów, którą otrzymujemy na podstawie wskazań laserowego skanera 3D. Zastosowano nowatorską technikę, w której dane pomiarowe zamieniane są na postać kartezjańską, następnie obliczane są wektory normalne do powierzchni, na której punkty leżą. Składowe wektora są normalizowane i zapisywane w reprezentacji RGB. W wyniku opisanej transformacji powstaje kolorowy obraz. Dzięki temu problem segmentacji danych w przestrzeni 3D jest sprowadzony do zadania analizy kolorowych obrazów. Umożliwia to zastosowanie znanych z wizji algorytmów: usuwania szumów, rozrostu ziarna i segmentacji. Przeprowadzone eksperymenty w pomieszczeniu zamkniętym i na zewnątrz budynku potwierdziły efektywność przyjętej metody.
EN
Map building of unknown environment is a part of a navigation system and is one of the most important topics in modern mobile robotics. Many environment representations have been proposed. One of the most popular is 2D representation which has many limitations, for example the height of obstacles is not taken into account. In the last decade 3D sensors are being more popular which enable 3D map building. In our approach the laser scans a scene and gives 2D data. The rotating support rotates the laser vertically, which allows to make 3D scans. The cloud of points is transformed into a set of normal vectors. The coordinates of a vector are represented as: red, green and blue colors. And 3D information is represented as 2D color image. The segmentation of the RGB image is performed using classical image processing methods. 2D areas are transformed into a 3D representation and classified. Experimental results validated the proposed approach and showed the benefits of using classical method of image processing for 3D data segmentation.
PL
W artykule przedstawiono metodę budowy hybrydowej rastrowo-obiektowej mapy otoczenia mobilnego na podstawie wskazań skanera laserowego 3D. Chmura punktów jest zapisywana w postaci zbioru wektorów normalnych. Składowe wektora są reprezentowane jako składowe RGB. Przeprowadzana jest segmentacja obrazu, a następnie dokonuje się klasyfikacji semantycznej. W procesie klasyfikacji wykorzystuje się cechy Haara oraz systemy regułowe. Każdy wykryty obiekt jest przypisywany do pewnej komórki mapy rastrowej. Mapa utworzona w ten sposób może być następnie wykorzystana w algorytmie nawigacyjnym - ułatwia współpracę robot-człowiek oraz planowanie trasy. Metoda jest kontynuacją algorytmu opisanego w artykule pt." Segmentacja danych otrzymanych z dalmierza laserowego 3D".
EN
The major goal of our current research is to build a dual grid-based and semantic map of an unknown indoor environment based on data obtained from a 3D laser scanner. In this paper main steps concerning object classification are presented. A point cloud from the 3D scanner is transformed into a set of normal vectors, which are then represented as a RGB raster image where each color component corresponds to x, y, z coordinates of the vectors. In the next step we apply some standard methods from image analysis, like flood-filling and object detection using Haar-like features, in order to perform segmentation and find objects of our interest in the examined scene. Afterwards we use 3D geometrical information and relation between the detected objects in our classification process. If a semantic meaning can be assigned to any object it is used for building a dual metric-semantic map of the environment. Such a map should serve as a basic element for human-robot interaction.
EN
The inverse electrocardiography was under development for many years. In this novel approach one application was elaborated and described in this paper; with 3D real–time visualisation of ECG tracings on a PC. Using the electrocardiography data–stream from the chest leads, electrical excitation sequence was visualised — by the non–invasive technique, supported by the three–dimensional model of heart.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.