Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 30

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  data quality
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
The proper management of water resources is currently an important issue, not only in Poland, but also worldwide. Water resource management involves various activities including monitoring, modelling, assessment and designing the condition and extent of waters sources. The efficient management of water resources is essential, especially in rural areas where it ensures greater stability and efficiency of production in all sectors of the economy and leads to the well-being of the ecosystem. The performed analyses have demonstrated that the time of origin of the cadastral data defining the course of water boundaries has a significant effect on their quality. Having analysed the factors (timeliness, completeness, redundancy) used to assess the quality of cadastral data, their clear trend of changes in time was noticed. Thus, it is possible to specify the estimated degree of quality of cadastral data defining the course of watercourse boundaries only based on the information about the method, time and area of data origin in the context of the former partition sector. This research paper presents an original method of assessing the quality of spatial data that is used to determine the course of the shoreline of natural watercourses with unregulated channels flowing through agricultural land. The research has also demonstrated that in order to increase the efficiency of work, the smallest number of principal factors should be selected for the final analysis. Limiting the analyses to a smaller number of factors does not affect the final result, yet it definitely reduces the amount of work.
2
Content available Use of universal address to ensure high-quality data
EN
The article describes how to ensure high quality of data previously processed in silos, i.e. separate databases and central registers. The concept of using a universal address was created in Poland in 2017, it was tested in practice and recommended for use in the annex to Resolution No. 28 of the Council of Ministers of February 18, 2021 on the Data Opening Program for the years 2021-2027 (Monitor Polski 2021, item 290). It is based on a specific complex data - created automatically and also automatically used, built from legally authorized codes - the so-called universal address. It is appropriate for solutions used in Poland because it is based on codes created by the Central Statistical Office and data structures of the Central Office of Geodesy and Cartography. It seems, however, that the concept is universal and could also be used in other countries and places where silos - not having a direct connection with each other – contain theoretically the same data provided with specifically defined identifiers. The practical usefulness of the described solution justifies an attempt to popularize it more widely and use it in various forms. The purpose of this article is to present this concept and to discuss it.
EN
The purpose of this article was to provide the user with information about the number of buildings in the analyzed OpenStreetMap (OSM) dataset in the form of data completeness indicators, namely the standard OSM building areal completeness index (C Index), the numerical completeness index (COUNT Index) and OSM building location accuracy index (TP Index). The official Polish vector database BDOT10k (Database of Topographic Objects) was designated as the reference dataset. Analyses were carried out for Piaseczno County in Poland, differentiated by land cover structure and urbanization level. The results were presented in the form of a bivariate choropleth map with an individually selected class interval suitable for the statistical distribution of the analyzed data. The results confirm that the completeness of OSM buildings close to 100% was obtained mainly in built-up areas. Areas with a commission of OSM buildings were distinguished in terms of area and number of buildings. Lower values of completeness rates were observed in less urbanized areas. The developed methodology for assessing the quality of OSM building data and visualizing the quality results to assist the user in selecting a dataset is universal and can be applied to any OSM polygon features, as well as for peer review of other spatial datasets of comparable thematic scope and detail.
PL
W Republice Federalnej Niemiec zaopatrzenie w wodę pitną w sytuacjach awaryjnych zapewnia 4800 niezależnych studni rozmieszczonych na terenie całego kraju, z których okoliczni mieszkańcy mogą samodzielnie pobierać wodę. Zakładana maksymalna odległość od miejsca zamieszkania do studni wynosi od 500 do 2000 m. Obszary do zaopatrzenia przez poszczególne studnie awaryjne tradycyjnie wyznaczane są za pomocą zataczania wokół nich okręgów na mapie. W pracy podjęto próbę zbadania na wybranym przykładzie, czy funkcjonalność wolnego oprogramowania GIS oraz dostępne otwarte dane przestrzenne pozwalają na bardziej precyzyjne wskazanie obszarów obsługiwanych przez poszczególne studnie, a w przypadku ich braku, zasugerowanie potencjalnych miejsc dla autocystern. Przeprowadzone analizy potwierdziły postawione na wstępie założenia.
EN
In the Federal Republic of Germany, emergency drinking water supply is provided by 4,800 independent wells distributed throughout the country, from which local residents can draw water on their own. The assumed maximum distance from the residence to the well is 500 to 2,000 meters. Areas to be supplied by individual emergency wells are traditionally delineated by drawing circles around them on a map. The paper attempts to examine, using a selected example, whether the functionality of free GIS software and the available open spatial data allow for a more precise determination of the areas served by individual wells, or, if none is available, to suggest potential locations for tanker trucks. Conducted analyses confirmed the assumptions made at the outset.
EN
The consumption of various forms of primary and secondary energy is one of the main sources of greenhouse gas emissions to the atmosphere. Also, the increase in the prices of energy resources is an important factor affecting the economic profitability of running a business organization. Legal requirements in the European Union also affect the need to implement appropriate solutions aimed at increasing energy efficiency, which translates into the need of implementing Energy Management Systems, based the ISO 50001 standard, in many enterprises.. In the case study presented in the article, which is based on a company from the energy industry in Poland, the most important Energy Performance Indexes and the impact of the quality of their information on the results obtained were reviewed. In the analyzed example, the main process used only 28% of the total energy consumption in the organization. Insufficient attention to auxiliary processes led to an undercut of Energy Performance by nearly 11% in the first year of operation. It is partic-ularly important to properly collect data on auxiliary processes, which are very often omitted or treated in general in companies, and as shown may constitute a significant share in the total amount of energy consumed.
EN
Background: Global product identification standards and methods of product data exchange are known and widespread in the traditional market. However, it turns out that the e-commerce market needs data that have not already received much attention, for which no standards have been established in relation to their content. Furthermore, their current quality is often perceived below expectations. This paper discusses the issues of product name and highlights its problems in the context of e-commerce. Attention is also drawn to the source of liability for erroneous data. Methods: The research methodology is based on the analysis of data of products available on the Internet through product catalog services, online stores, and e-marketplaces, mainly in Poland, but addresses a global problem. Three research scenarios were chosen, comparing product names aggregated by GTIN, starting with e-commerce sites and ending with product catalogs working with manufacturers. In addition, a scenario of name-photo compatibility was included. Results: The results show that the product name, which in the real world is an integral part of the product as it appears on the label provided by the manufacturer, in the virtual world is an attribute consciously or not modified by the service provider. It turns out that discrepancies appear already at the source - at the manufacturer's level - publishing different names for the same product when working with data catalogs or publishing on product pages contributing to the so-called snowball effect. Conclusions: On the Internet, products do not have a fixed name that fully describes the product, which causes problems in uniquely identifying the same products in different data sources. This in turn reduces the quality of data aggregation, search, and reliability. This state of affairs is not solely the responsibility of e-commerce marketplace vendors, but of the manufacturers themselves, who do not take care to publicize the unambiguous and permanent name of their products in digital form. Moreover, there are no unambiguous global guidelines for the construction of a full product name. The lack of such a template encourages individual interpretations of how to describe a product.
EN
. The purpose of the article is to present the research on method of the quality evaluation of published open geospatial data and its implementation in Ukraine. The method of the quality evaluation of open geospatial data considers the international standard ISO 19157 “Geographic information. Data quality”. This method is to determine the number of points or levels (maximum – 5). The research was carried out for the evaluation of open geoinformation resources for production of geospatial datasets, as defined in the Ukrainian Law on NSDI. The authors evaluated the quality of 142 open geoinformation resources and other information resources (materials) for the production and updating of 34 geospatial datasets for the development of NSDI in Ukraine. The authors present the example of the quality evaluation of geospatial data for datasets: “State Geodetic Reference Coordinate System UCS-2000”, “State Geodetic Network”, “Geographical Names” and “Administrative Units” because they are the components of the Core Reference Dataset of NSDI. Limitations of the research were determined by the adopted the Law of Ukraine “On National Spatial Data Infrastructure” and the Order for NSDI functioning in Ukraine and the requirements of the international standard ISO 19157 “Geographic information. Data quality”. The results of the research will be employed to evaluate the quality of NSDI implementation in Ukraine. The proposed method allows evaluating the quality of open geospatial dataset before using them for analysis and modeling of terrain, phenomena. This method takes into account the quality of geospatial data, and its related requirements for their production, updating and publication.
EN
For several years GIS software users could use for any purpose a dataset being to some extent an alternative to both products offered by commercial providers and official databases. It is OpenStreetMap (OSM for short) – a worldwide spatial dataset, created and edited by interested individuals and available for use by anyone with no limitations. It is built on the basis of data recorded with consumer grade GPS receivers, obtained through vectorization of aerial photographs and from other usable sources, including even sketches made in the field. The collected information is stored in a central database, the content of which is not only presented on the website as a digital map, but also offered for download as vector data. Such data can be used for, among other things, performing various analyses based on road networks, of which the most frequently used is the function of determining the optimal route connecting selected locations. The results of such analyses can only be considered reliable if the data used are of adequate quality. As the OSM database is built by enthusiasts, no plans for its systematic development are formulated and there are no built-in quality control mechanisms. Therefore, the paper proposes methods and tools to verify the usefulness of the data collected so far, as well as to correct detected errors. It focuses on the following categories of geographic data quality: location accuracy, topological consistency and temporal validity. In addition, a problem with determining the length of individual road network segments was noticed, related to data acquisition methods and ways of recording the shape of lines. Therefore, in order to carry out the so-called route calibration, it was suggested to use kilometer and hectometer posts used in transportation networks, the locations of which are successively added to the OSM database.
PL
Od kilkunastu już lat użytkownicy oprogramowania GIS mogą używać do dowolnych celów zbioru danych będącego do pewnego stopnia alternatywą zarówno dla produktów oferowanych przez dostawców komercyjnych, jak i urzędowych baz danych. Jest nim OpenStreetMap (w skrócie OSM) – obejmujący cały świat zbiór danych przestrzennych, tworzony i edytowany przez zainteresowane osoby i dostępny do stosowania przez każdego chętnego bez żadnych ograniczeń. Budowany jest na podstawie danych rejestrowanych turystycznymi odbiornikami GPS, pozyskiwanych poprzez wektoryzację zdjęć lotniczych oraz pochodzących z innych nadających się do wykorzystania źródeł, w tym nawet szkiców wykonywanych w terenie. Zgromadzona informacja zapisywana jest w centralnej bazie danych, której zawartość jest nie tylko prezentowana na stronie internetowej w postaci cyfrowej mapy, lecz również oferowana do pobrania jako dane wektorowe. Takie dane mogą mieć zastosowanie między innymi do przeprowadzania różnorodnych analiz bazujących na sieciach drogowych, z których najczęściej wykorzystywana jest funkcja wyznaczania optymalnej trasy łączącej wybrane lokalizacje. Wyniki takich analiz można uznać za wiarygodne tylko wtedy, gdy użyte w nich dane będą się charakteryzować odpowiednią jakością. Ponieważ baza danych OSM budowana jest przez pasjonatów, nie są formułowane żadne plany jej systematycznego rozwoju oraz brak jest wbudowanych mechanizmów kontroli jakości. Dlatego w artykule zaproponowano metody i narzędzia, które pozwolą na weryfikację przydatności zgromadzonych do tej pory danych, jak również na poprawę wykrytych błędów. Skupiono się na następujących kategoriach jakości danych geograficznych: dokładności położenia, spójności topologicznej oraz ważności czasowej. Dodatkowo dostrzeżono problem z wyznaczaniem długości poszczególnych obiektów sieci drogowej, związany z metodami pozyskiwania danych i sposobami rejestracji kształtu linii. W związku z tym do przeprowadzenia tak zwanej kalibracji trasy zasugerowano użycie stosowanych w sieciach transportowych słupków kilometrowych i hektometrowych, których lokalizacje są sukcesywnie wprowadzane do bazy danych OSM.
EN
The current age characterized by unstoppable progress and rapid development of new technologies and methods such as the Internet of Things, machine learning and artificial intelligence, brings new requirements for enterprise information systems. Information systems ought to be a consistent set of elements that provide a basis for information that could be used in context to obtain knowledge. To generate valid knowledge, information must be based on objective and actual data. Furthermore, due to Industry 4.0 trends such as digitalization and online process monitoring, the amount of data produced is constantly increasing – in this context the term Big Data is used. The aim of this article is to point out the role of Big Data within Industry 4.0. Nevertheless, Big Data could be used in a much wider range of business areas, not just in industry. The term Big Data encompasses issues related to the exponentially growing volume of produced data, their variety and velocity of their origin. These characteristics of Big Data are also associated with possible processing problems. The article also focuses on the issue of ensuring and monitoring the quality of data. Reliable information cannot be inferred from poor quality data and the knowledge gained from such information is inaccurate. The expected results do not appear in such a case and the ultimate consequence may be a loss of confidence in the information system used. On the contrary, it could be assumed that the acquisition, storage and use of Big Data in the future will become a key factor to maintaining competitiveness, business growth and further innovations. Thus, the organizations that will systematically use Big Data in their decision-making process and planning strategies will have a competitive advantage.
10
Content available remote Towards data quality runtime verification
EN
This paper discusses data quality checking during business process execution by using runtime verification. While runtime verification verifies the correctness of business process execution, data quality checks assure that particular process did not negatively impact the stored data. Both, runtime verification and data quality checks run in parallel with the base processes affecting them insignificantly. The proposed idea allows verifying (a) if the process was ended correctly as well as (b) whether the results of the correct process did not negatively impact the stored data in result of its modification caused by the specific process. The desired result will be achieved by use of domain specific languages that would describe runtime verification and data quality checks at every stage of business process execution.
PL
Systemy NATO-wskie, jak i inne systemy zarządzania gospodarki cywilnej i wojskowej, usprawniane są z użyciem systemów automatycznej identyfikacji – ADC. Zgodnie z wymaganiami NATO i Unii Europejskiej stosowanie efektywnych rozwiązań w tym zakresie zależy od ich zgodności ze standardami i normami. Warunki te spełniają globalne standardy i rozwiązania GS1. Kodyfikacja wyrobów obronnych oraz ich oznaczanie również realizowane jest według GS1. Jednakże efektywność tych systemów zależy w znacznym stopniu od jakości danych stałych i zmiennych, na co ma też wpływ sposób ich pozyskiwania. Artykuł przedstawia stosowane sposoby i główne problemy związane z pozyskiwaniem poprawnych danych oraz rozwiązania tych problemów, jakie wypracowano na rzecz podniesienia jakości danych. Są nimi: dobre praktyki i metodyki weryfikacji merytoryczno-technicznych oznaczeń kodowych, ze szczególnym uwzględnieniem wyrobów przeznaczonych na cele obronności i bezpieczeństwa państwa, opracowane w wyniku 4-letnich badań.
EN
NATO systems and other civilian and military economy management systems are being improved with the use of ADC (automatic data capture) systems. Under the requirements developed by the NATO and the EU, application of efficient solutions in this scope depends on their compliance with standards. GS1 global standards and solutions meet these conditions. The codification of defence-related products and their labeling is also compliant with GS1. The efficiency of these systems, however, depends to a large degree on the quality of fixed and variable data, which is also influenced by the method of its collection. The article presents methods applied and main problems related to the collection of correct data, as well as solutions to these problems developed to improve the quality of data. They include: best practices and methodologies of content-related and technical verification of codes, with particular emphasis on products intended for ensuring a country’s defence and safety, developed as a result of four years of studies.
12
Content available Systemy logistyczne a jakość danych
PL
Modernizacja logistyki gospodarki cywilnej i wojskowej wymaga wdrażania nowych narzędzi elektronicznej gospodarki. Są nimi systemy automatycznej identyfikacji (ADC) i Elektronicznej Wymiany Danych (EDI) według standardów i rozwiązań GS1, których efektywność w znacznym stopniu zależy od jakości danych biznesowych, zarówno wprowadzanych do baz danych uczestników łańcucha dostaw oraz do ich systemów informatycznych. Jednym z podstawowych źródeł danych o jednostkach handlowych są tak zwane Karty wyrobu, wdrażane obecnie w Siłach Zbrojnych RP, które wzorowane są na kartach produktu, stosowanych powszechnie w gospodarce cywilnej. Identyfikacja i właściwy opis wszystkich zasobów i dostaw do wojska, według wypracowanych i nadal usprawnianych w tym zakresie rozwiązań, decyduje o jakości danych i wpływa na sprawność systemów ADC i EDI, usprawniających logistykę. Identyfikacja i opis zasobów oraz dostaw do wojska, według globalnych, międzynarodowych i krajowych branżowych „kodów” z ich danymi logistycznymi, poprzez odpowiednio sformułowane dokumenty / formularze kart wyrobów, na rzecz wprowadzenia wysokiej jakości danych do baz danych i na rzecz fizycznego oznaczania kodami kreskowymi, jest wynikiem prowadzonych od kilku lat prac i badań. Artykuł prezentuje wypracowane rozwiązanie, które w wyniku konfrontacji z praktyką i ze identyfikowanymi problemami wymaga weryfikacji pierwotnego rozwiązania, na podstawie realizowanych przez ostatnie 4 lata prac, na rzecz usprawniania logistyki wojska i firm – jego dostawców.
EN
The upgrade of civilian and military economy logistics requires implementing new e-economy tools. They include Automatic Data Capture (ADC) and Electronic Data Interchange (EDI), in accordance with GS1 standards and solutions, whose efficiency is greatly influenced by the quality of business data entered to databases containing details of supply chain participants, and to their IT systems. One of the basic sources of information on trade units are the co-called Product Sheets currently implemented in the Polish Armed Forces, inspired by the product sheets commonly used in civil economy. Identification and appropriate description of all resources and supplies to the army, in accordance with developed and continuously improved solutions, influences data quality and the efficiency of ADC and EDI systems which streamline logistics. For several years now, works and studies on resource identification and description, and on the description of supplies to the army according to global, international and domestic industry "codes" which include their logistic details, with the use of appropriate product documents / forms, have been carried out with the purpose of introducing high quality data to data bases, and physical labelling with bar codes. The article presents a solution which, as a result of confrontation with practice and identified problems, requires the verification of the previous solution, on the basis of works which have been carried out for 4 the last years. The purpose of the solution is to improve the efficiency of the army and its supplying companiess.
EN
Today, many efforts have been made to implement information systems for supporting research evaluation activities. To produce a good framework for research evaluation, the selection of appropriate measures is important. Quality aspects of the systems’ implementation should also not be overlooked. Incomplete or faulty data should not be used and metric computation formulas should be discussed and valid. Correctly integrated data from different information sources provide a complete picture of the scientific activity of an institution. Knowledge from the data integration field can be adapted in research information management. In this paper, we propose a research information system for bibliometric indicator analysis that is incorporated into the adaptive integration architecture based on ideas from the data warehousing framework for change support. A data model of the integrated dataset is also presented. This paper also provides a change management solution as a part of the data integration framework to keep the data integration process up to date. This framework is applied for the implementation of a publication data integration system for excellence-based research analysis at the University of Latvia.
PL
Narzędziem usprawniającym logistykę łańcuchów dostaw jest automatyczna identyfikacja (ADC). Na podstawie przeglądu i oceny dotychczas wdrażanych systemów ADC na świecie i w Polsce dokonano doboru standardów i rozwiązań, które są obecnie wdrażane w Siłach Zbrojnych RP, wykorzystując synergię obrotu towarowego w gospodarce cywilnej i wojskowej. Jednoznaczność, bezbłędność danych, pozyskiwanych w czasie rzeczywistym, nie tylko usprawnia logistykę łańcuchów dostaw i funkcjonowanie wojska na co dzień oraz w okresie konfliktu zbrojnego, ale również wpływa na poziom bezpieczeństwa kraju, społeczeństwa i żołnierzy wojsk sprzymierzonych w NATO.
EN
Automatic Data Capture (ADC) is a tool streamlining the logistics of supply chains. Following a review and assessment of ADC systems implemented in Poland and all over the world, standards and solutions, currently being implemented in the Polish Armed Forces and providing for the synergy of merchandise trade, have been chosen. The coherence and completeness of data obtained in real time not only streamline the logistics of supply chains and operations of the army every day and during armed conflicts, but also affect the level of security of the state, society and allied NATO soldiers.
PL
Ewidencja gruntów i budynków (EGiB) nazywana też przez ustawodawcę katastrem nieruchomości powinna funkcjonować w zgodzie z aktualnymi przepisami prawa spełniając jednocześnie społeczne oczekiwania i zapewniając powszechny dostęp do danych ewidencyjnych przez użytkowników, którzy z nich korzystają. Niewątpliwy wpływ na wiarygodność i użyteczność danych znajdujących się w tym państwowym rejestrze ma sposób jego prowadzenia, który co do zasady może być czynny bądź bierny. W przypadku czynnego prowadzenia EGiB i jego nieustannej aktualizacji informacje w nim zawarte będą miały wysoką wartość użytkową. Bierne prowadzenie EGiB powoduje z kolei nieodwracalną nieaktualność danych ewidencyjnych i brak ich wiarygodności. Głównym celem artykułu jest ocena jakości danych zgromadzonych w ewidencji gruntów i budynków oraz wskazanie, iż czynne prowadzenie tego rejestru odgrywa niezmiernie ważną rolę z punktu widzenia późniejszego użytkownika i odbiorcy danych ewidencyjnych. Na potrzeby analiz zaprezentowano dane z obszaru gminy Michałowice, woj. małopolskie. W pracy zaproponowano i przedstawiono także sposób, który może poprawić aktualność tego publicznego rejestru.
EN
The Land and Property Register (LPR) also called the Cadastre by the legislator should function in accordance with regulations in force, meet expectations of the public and provide universal access to Register data for its users. Beyond any doubt, credibility and usefulness of data in this public register are affected by the manner it is kept, which generally includes active and passive approach. If the LPR is kept in an active manner and constantly up to date, its data is very useful. Passive methods of keeping the LPR render record data irreversibly out of date and unreliable. The principal purpose of the paper is to assess the quality of data of a Land and Property Register and indicate that active keeping of the register is vital from the point of view of a prospective user and recipient of its data. The analysis involved data for the Michałowice commune, Małopolskie Voivodeship. Moreover, the paper suggests and presents a method that may improve validity of this public register.
PL
Jakość danych OpenStreetMap (OSM), a w szczególności takie jej elementy ilościowe jak kompletność oraz dokładność położenia, wzbudza szerokie zainteresowanie naukowców na świecie. W artykule przedstawiono potencjalne okoliczności powszechnie obserwowanej heterogenicznej charakterystyki OSM, zwracając uwagę na aspekt niedoskonałości ustaleń semantycznych i założeń jakościowych inicjatywy oddolnej jaką jest OpenStreetMap. Część praktyczną badań stanowi ocena kompletności i dokładności lokalizacji danych o budynkach i budowlach OSM w stosunku do krajowych danych urzędowych, bazy danych obiektów topograficznych BDOT10k. Analizy zostały przeprowadzone dla peryferyjnie położonego, powiatu siedleckiego i miasta Siedlce. Opracowanie dopełnia dotychczasowe rezultaty badawcze w zakresie analiz ilościowych jakości OSM, a otrzymane wyniki potwierdzają zróżnicowaną jakość danych o budynkach, w sensie ich kompletności i wypełnienia wartościami ich atrybutów oraz dokładności lokalizacji, także na terenie Polski. Niemniej jednak, wyniki analizy dokładności geometrycznej są zaskakująco dobre. W dyskusji autorzy zwracają uwagę na fakt, że mimo niedoskonałości danych wolnych i otwartych są one powszechnie wykorzystywane przez użytkowników, do których należy także administracja publiczna.
EN
Researchers all over the world are interested in OpenStreetMap data and its quality including completeness and geometric accuracy. This article looks into the commonly observed heterogeneous characteristics of OpenStreetMap geospatial data and draws attention to the vague semantic and quality foundations of this important grass-roots initiative. The experiment is an assessment of the completeness and positional accuracy of OSM building data compared to the national data: the Database of Topographic Objects in Poland (BDOT10k). The analysis was performed for the county and city of Siedlce. This study complements previous research results in the quantitative analysis of OpenStreet- Map data quality. The results confirm the variable quality of OSM data in terms of completeness and updating of building information found in their attribute's, and the positional accuracy of building corners even for the Polish territory. Nevertheless, the analysis did find that the positional accuracy of the OpenStreetMap building data was very good in comparison to the BDOT10K database. The authors draw attention to the fact that Free and Open geospatial data, despite its imperfections, is widely adopted by users including public administrations.
PL
W artykule określono wpływ zniekształcenia wiązki lasera podczas pomiarów obiektów z różnych materiałów, na ich zobrazowanie z pomiaru wykonanego skanerem laserowym 3D. Na podstawie pozyskanej chmury punktów przedstawiono problem jakości danych, uzależnionych od intensywności odbicia promienia i rodzaju materiału, z którego jest wykonany obiekt. Znajomość tych problemów pozwala na uzyskanie cennych danych koniecznych do wykonania digitalizacji i wizualizacji praktycznie każdego obiektu budowlanego.
EN
This paper discusses the impact of a laser beam deformation during 3D laser scanning of different objects. Based on a point cloud obtained for selected examples, the paper addresses the issue of the quality of data dependant on the intensity of laser beam reflection and the type of material. The knowledge of these issues allows obtaining valuable data necessary to develop a digital and visual model of practically any building structure made of any given material.
EN
The paper discusses a testing method for a point cloud colorization algorithm. The point cloud colorization process is described in the context of photogrammetric and laser scanning data integration. A parallel algorithm is described following a theoretical introduction to the problem of LiDAR data colorization. The paper consists of two main parts. The first part presents the testing methodology via two aspects: (1) correctness of the color assigned to a given point, (2) testing of interpolation methods. Both tests are used on synthetic and natural data, and the results are discussed. The second part consists of a discussion of correctness factors associated with point cloud colorization as a typical case of process correctness in data integration. Three important factors are discussed in the paper. The first is correctness of the external orientation of the given image. The second is the ratio of the density of the point cloud and the GSD of the image. The third is the relative angle between the image and the scanned plane. All of the results are presented in the paper and the optimal range of the relevant factors is also discussed.
PL
Publikacja omawia opracowanie metody oceny poprawności działania algorytmu służącego do przypisania składowych RGB punktom chmury pochodzącej ze skaningu laserowego. Metoda testowania tego algorytmu jest przedstawiona w kontekście problemu kontroli merytorycznej algorytmów do przetwarzania danych przestrzennych. Proces kolorowania traktowany jest jako jeden z przypadków integracji danych skaningowych i fotogrametrycznych. W ramach wprowadzenia teoretycznego autorzy omawiają problemy badawcze, które wynikają z potrzeby sprawdzenia poprawności oraz dokładności procesu kolorowania. Podane są kryteria, według których można określić, czy badany algorytm jest poprawny pod względem merytorycznym: czy kolorowane są odpowiednie piksele i czy metody interpolacji są zastosowane prawidłowo. Następnie określony jest wpływ dokładności elementów orientacji zewnętrznej oraz rozmiaru piksela terenowego zdjęć na poprawne kolorowanie. Na koniec omówiono problem nierównoległości płaszczyzny tłowej do powierzchni chmury punktów, co też może mieć wpływ na jakość kolorowania. Po rozważaniach teoretycznych opisane zostały metody testowania poprawności przyporządkowania punktom koloru oraz poprawności implementacji algorytmów interpolacji. Obie metody zastosowane są na danych syntetycznych oraz na rzeczywistych danych pomiarowych. Następnie dyskutowane są inne czynniki, niezależne od poprawności algorytmu kolorowania, wpływające na dokładność kolorowania chmury punktów. Pierwszy czynnik to dokładność elementów orientacji zewnętrznej fotogramu, który służy do kolorowania. Kolejnym czynnikiem jest różnica pomiędzy rozdzielczością terenową fotogramu i kolorowanej chmury punktów. Trzecim czynnikiem jest kąt pomiędzy kolorowana powierzchnią chmury punktów a płaszczyzną tłową fotogramu. Badanie algorytmu zostaje rozszerzone o podanie ogólnych zasad dotyczących parametrów technicznych danych integrowanych w ramach omawianego procesu w zakresie powyższych trzech czynników. Badanym, przykładowym algorytmem jest CuScanColorizer - innowacyjny algorytm firmy DEPHOS Software, który wykonuje kolorowanie chmury punktów, wykorzystując do tego metodę przetwarzania równoległego na procesorach graficznych opartą na technologii nVidia CUDA. W podsumowaniu podane są wyniki zastosowania metody kontroli poprawności algorytmu wraz z oceną przykładowego, badanego algorytmu oraz wskazaniem parametrów optymalnych z punktu widzenia stosowania procesu kolorowania chmury. Jako dodatkową konkluzję zawarto ocenę poprawności algorytmu CuScanColorizer.
EN
The problem of poor quality of traffic accident data assembled in national databases has been addressed in European project InDeV. Vulnerable road users (pedestrians, cyclists, motorcyclists and moped riders) are especially affected by underreporting of accidents and misreporting of injury severity. Analyses of data from the European CARE database shows differences between countries in accident number trends as well as in fatality and injury rates which are difficult to explain. A survey of InDeV project partners from 7 EU countries helped to identify differences in their countries in accident and injury definitions as well as in reporting and data checking procedures. Measures to improve the quality of accident data are proposed such as including pedestrian falls in accident statistics, precisely defining minimum injury and combining police accident records with hospital data.
PL
Artykuł przedstawia częściowe wyniki projektu InDeV, którego celem jest pogłębiona analiza przyczyn wypadków z niechronionymi uczestnikami ruchu (NUR). W ramach projektu zbadano jakość i spójność danych o wypadkach drogowych gromadzonych w krajach UE na podstawie raportów policyjnych. Problem zaniżonej liczby wypadków oraz niewłaściwego określania ich ciężkości dotyczy w szczególności NUR (pieszych, rowerzystów, motocyklistów i motorowerzystów). Wykonano analizy statystyczne oparte o dane pochodzące z europejskiej bazy o wypadkach drogowych CARE. Analiza ujawniła trudne do wytłumaczenia różnice pomiędzy krajami, zarówno w odniesieniu do trendów liczby wypadków, jak i wskaźników ofiar śmiertelnych i rannych.
PL
Definicja parametrów jakościowych chmury punktów pozyskanej metodą lotniczego skanowania laserowego stanowi element niemal każdego zamówienia wiążącego się z wykonaniem lotów pomiarowych. Jakość danych LiDAR nie może być utożsamiana wyłącznie z ich dokładnością, ale jest pojęciem znacznie szerszym, obejmującym inne parametry chmury punktów pozyskanej w wyniku lotu pomiarowego. Przykładowo wymagania dotyczące parametrów takich jak pokrycie oraz gęstość określone są w polskich regulacja prawnych. Na wyżej przywołane parametry danych LiDAR mogą wpływać w pewnym stopniu czynniki związane z samym lotem, takie jak niestabilność prędkości czy linowe lub wysokościowe odstępstwa od planowanej linii lotu. Najbardziej istotnym czynnikiem wydają się być jednak wychylenia oraz drgania platformy pomiarowej. Pozyskiwanie danych LiDAR bez systemu stabilizacji oraz wibroizolacji może utrudniać zachowanie wymaganych parametrów jakościowych. W trakcie prac prowadzonych w ramach projektu, którego efektem było zbudowanie prototypu ultralekkiej stabilizowanej platformy pomiarowej dla wiatrakowca, dokonano szeregu analiz związanych z doborem odpowiedniego systemu stabilizacji rozpatrując trzy składowe wychyleń: roll, pitch, yaw. W tym celu stworzone zostały narzędzia informatyczne służące badaniu wpływu wychyleń na jakość danych LiDAR przy założeniu określonych parametrów linii nalotowych oraz ustawień pracy skanera.
EN
The definition of the quality parameters of a point cloud acquired using the airborne laser scanning is the element of almost every terms of reference involving airborne spatial data acquisition. The quality of the LiDAR data should not be identified only with accuracy and should be examined in a wider aspect taking into account other parameters of the point cloud that was acquired as a result of a flight. For instance the Polish legal regulations provide the requirements concerning the coverage of the strips and the point density. The above mentioned parameters of the LiDAR data can be influenced to some extent by many factors concerning the flight itself such as a varying speed as well as the horizontal and vertical deflections from the planned flight line. However, vibrations and angular deflections seem to influence the point cloud quality to the highest extent. LiDAR data acquisition without required stabilizing system makes keeping the required quality parameters very hard. Within the research project which aimed to develop the prototype of the ultralight, stabilized mapping platform for the gyrocopter, a number of analyses concerning the optimal stabilization scenario were carried out. Tools including scripts and computer programs for analyzing the impact of the deflections on the data quality have been developed. The proper stabilization variant has been established taking into account three separate deflection components, i.e.: roll, pitch and yaw.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.