Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 27

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  generalizacja
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
PL
Mobilna nawigacja MOBINAV jest przykładem systemu informacji przestrzennej dedykowanego dla rekreacyjnych użytkowników śródlądowych dróg wodnych, realizowanego w ramach projektu badawczego pt. „Mobilna nawigacja śródlądowa”. Do głównych założeń projektu można zaliczyć opracowanie nowego modelu mobilnej prezentacji kartograficznej. W trakcie pracy nad modelem systemu, skupiono się na potrzebach użytkownika końcowego oraz możliwościach technicznych urządzeń mobilnych, których użycie wiąże się z ograniczeniami w wizualizacji danych na stosunkowo małych ekranach. Tak zdefiniowany model zakładał opracowanie niezależnych zestawów danych wykorzystywanych w poszczególnych geokompozycjach składowych, które powstały w wyniku generalizacji podstawowego zestawu danych. Dla obiektów o geometrii liniowej oraz powierzchniowej zastosowano klasyczne algorytmy upraszczania przy poszczególnych skalach wyświetlania map wynikowych. W trakcie wyświetlania obiektów punktowych, zwłaszcza punktów głębokości oraz znaków nawigacyjnych, które mają kluczowe znaczenie w trakcie prowadzenia nawigacji na ekranie urządzenia widoczna była zbyt duża ilość informacji, a przede wszystkim w niektórych miejscach symbole nakładały się na siebie. Konieczna jest, zatem korekta, polegająca na rozsunięciu sygnatur oraz ich dopasowaniu do skali wyświetlania. W artykule przedstawiono propozycję algorytmu wykrywania oraz usuwania konfliktów graficznych dla obiektów o geometrii punktowej dedykowanego budowanemu systemowi mobilnej nawigacji śródlądowej. Zawarto przykładowe wyniki dla poszczególnych skal wyświetlania mapy wynikowej na danych rzeczywistych zaimportowanych z dostępnych źródeł. Przeprowadzone testy pozwalają sądzić, iż zastosowanie przedstawionego w artykule algorytmu w znacznym stopniu ulepsza poprawną interpretację mapy na urządzeniu mobilnym.
EN
The mobile navigation MOBINAV is an example of a spatial information system dedicated for recreational users of inland waters. \MOBINAV is implemented within the research project “Mobile Navigation for Inland Waters”. The main objectives of the project include developing a novel model of mobile cartographic presentation. During the model system development the authors focused on the users’ needs and technical capabilities of mobile devices. Visualisation of spatial data in mobile devices is limited due to small displays. The defined model was to develop independent sets of data used in particular geocompositions, which resulted from generalization of the basic dataset. For polyline and polygon features classical simplification algorithms were used. When point features were displayed too much information was visible and, above all, in some places the symbols were overlapping. This was particularly evident for the depth points and information marks, which are very important during navigation. Therefore, it is necessary to correct a location of signatures and their matching to the scale display. The paper presents a proposed algorithm of detection and removal of graphic conflicts for point features in a mobile navigation system for inland waters. The exemplary results for individual map scales using real data imported from available sources were also included. The conducted tests suggest that the use of the algorithm presented in the paper greatly improves the correct interpretation of maps on mobile devices.
PL
Celem przedstawionych prac badawczych była ocena wpływu NMT o różnej rozdzielczości przestrzennej do ekstrakcji linii ciekowych. Przyjmuje się, że im oczko siatki jest mniejsze, tym model terenu bardziej wiernie oddaje rzeczywistość, a tym samym otrzymane dane (w tym przypadku linie spływu) będą dokładniejsze. Dysponując jednak ogromną ilością danych, które w znaczny sposób wpływają na obniżenie mocy obliczeniowej, należy zadać pytanie, czy można uzyskać równie dobre wyniki zmieniając wielkość oczka siatki, a tym samym zmniejszając rozdzielczość NMT. Do przeprowadzenia badań, mających na celu ocenę przydatności NMT, wykorzystano materiały zgromadzone w CODGiK pozyskane w ramach projektu ISOK. Jako dane źródłowe posłużyły pliki tekstowe w formacie ASCII (XYZ) zawierające wysokości punktów w regularnej siatce GRID o oczku 1m, które następnie zostały zgeneralizowane do siatek GRID o oczkach 2 m, 3 m, 4 m i 5 m. W kolejnym kroku, dla NMT o różnej rozdzielczości, wygenerowano linie ciekowe, które zostały poddane analizie. W celu określenia prawidłowości wyników, przebieg linii spływu został porównany z przebiegiem cieków uzyskanym w wyniku bezpośrednich pomiarów. Wybrano trzy pola testowe o różnej charakterystyce, które posłużyły do zrealizowania prac eksperymentalnych. Uzyskane wyniki pokazują, że największą porównywalność wytyczonych linii do rzeczywistego przebiegu cieku, otrzymano dla obszaru z wyraźnie zaznaczoną doliną rzeczną. Z kolei najtrudniejsze do analizy hydrologicznej (a tym samym do wytyczenia linii spływu) są tereny o płaskich, szerokich dolinach.
EN
The aim of the presented research was to evaluate the effect of ATM of different resolution to the extraction of drainage lines. It is assumed that the smaller the mesh opening is, the more accurately terrain model reflects the reality. Moreover, obtained data (here: flow lines) will be more accurate. However, disposal of a huge amount of data significantly influences the reduction of computational power. should be considered if by changing the size of the mesh and thereby reducing the resolution of DTM can be obtained equally good results. To conduct research which assess the suitability of DTM were used materials collected in CODGiK (Geodesic and Cartographic Documentation Center). Obtained under the project ISOK (IT system of the Country’s Protection Against Extreme Hazards). As the source of data were used text files in ASCII format, containing the height of points with a regular grid with resolution of 1 meter. Next, they were generalized to GRID with a mesh aperture of 1, 2, 3, 4 and 5 meters. In the next step drain lines were generated, which been the subject of analysis to DTM of different resolution. In order to define the accuracy of the results, the course of the flow lines was compared with the drainage lines obtained as a result of direct measurement. Three text Fields with different characteristic were used to present experimental works. The results show that the biggest similarity of delineated flow lines with the real course of drainage line, was obtained for the area of prominent river valley. However, areas of broad and flat valleys are the most difficult to hydrological analysis (and thereby to delineate flow lines).
PL
Jest to próba refleksji nad podstawowymi materiałami kartograficznymi, na bazie których powstają szczegółowe opracowania tematyczne, związane z zagospodarowaniem przestrzennym, krajobrazem, infrastrukturą, pokryciem terenu itp. Powszechny dostęp do takich materiałów za pomocą Geoportalu po wprowadzeniu INSPIRE1 oraz coraz szersza cyfryzacja map rodzi pewne oczekiwania i wymagania co do ich aktualności. Po szczegółowej analizie dostępnych danych kartograficznych, w tym map topograficznych obszaru województwa śląskiego, potrzebnych do różnych opracowań tematycznych, można dojść do wniosku, że wszystkie dostępne mapy można uznać za „historyczne”. Stan zawartej na nich treści uzasadnia taką refleksję.
EN
It is an attempt to reflect upon the primary cartographic materials on the basis of which specific thematic studies associated with spatial development, landscape, infrastructure, land cover, etc. are developed. Universal access to such materials via the Geoportal after the introduction of INSPIRE and the ever increasing digitalization of maps raises certain expectations and requirements for the relevance of data. After a detailed analysis of the available cartographic data (topographic maps) for the Silesian Province area that is needed for various thematic studies, it can be concluded that all available maps can be considered as "historical". The status of their content justifies such reflection.
PL
Przedstawione badania dotyczą opracowania algorytmu redukcji ilości danych wysokościowych w postaci numerycznego modelu terenu z lotniczego skanowania laserowego (ALS) dla potrzeb modelowania powodziowego. Redukcja jest procesem niezbędnym w przetwarzaniu ogromnych zbiorów danych z ALS, a jej przebieg nie może mieć charakteru regularnej filtracji danych, co często ma miejsce w praktyce. Działanie takie prowadzi do pominięcia szeregu istotnych form terenowych z punktu widzenia modelowania hydraulicznego. Jednym z proponowanych rozwiązań dla redukcji danych wysokościowych zawartych w numerycznych modelach terenu jest zmiana jego struktury z regularnej siatki na strukturę hybrydową z regularnie rozmieszczonymi punktami oraz nieregularnie rozlokowanymi punktami istotnymi. Celem niniejszego artykułu jest porównanie algorytmów ekstrakcji punktów istotnych z numerycznych modeli terenu, które po przetworzeniu ich z użyciem redukcji danych zachowają swoją dokładność przy jednoczesnym zmniejszeniu rozmiaru plików wynikowych. W doświadczeniach zastosowano algorytmy: indeksu pozycji topograficznej (TPI), Very Important Points (VIP) oraz Z-tolerance, które posłużyły do stworzenia numerycznych modeli terenu, podlegających następnie ocenie w porównaniu z danymi wejściowymi. Analiza taka pozwoliła na porównanie metod. Wyniki badań potwierdzają możliwości uzyskania wysokiego stopnia redukcji, która wykorzystuje jedynie kilka procent danych wejściowych, przy relatywnie niewielkim spadku dokładności pionowej modelu terenu sięgającego kilku centymetrów.
EN
The presented research concerns methods related to reduction of elevation data contained in digital terrain model (DTM) from airborne laser scanning (ALS) in hydraulic modelling. The reduction is necessary in the preparation of large datasets of geospatial data describing terrain relief. Its course should not be associated with regular data filtering, which often occurs in practice. Such a method leads to a number of important forms important for hydraulic modeling being missed. One of the proposed solutions for the reduction of elevation data contained in DTM is to change the regular grid into the hybrid structure with regularly distributed points and irregularly located critical points. The purpose of this paper is to compare algorithms for extracting these key points from DTM. They are used in hybrid model generation as a part of elevation data reduction process that retains DTM accuracy and reduces the size of output files. In experiments, the following algorithms were tested: Topographic Position Index (TPI), Very Important Points (VIP) and Z-tolerance. Their effectiveness in reduction (maintaining the accuracy and reducing datasets) was evaluated in respect to input DTM from ALS. The best results were obtained for the Z-tolerance algorithm, but they do not diminish the capabilities of the other two algorithms: VIP and TPI which can generalize DTM quite well. The results confirm the possibility of obtaining a high degree of reduction reaching only a few percent of the input data with a relatively low decrease of vertical DTM accuracy to a few centimetres. The presented paper was financed by the Foundation for Polish Science - research grant no. VENTURES/2012-9/1 from Innovative Economy program of the European Structural Funds.
EN
Automation of generalization of geographic information is known as one of the biggest challenges facing modern cartography. Realization of such a process demands knowledge base which will help to decide which algorithms in which sequence should be used and how to parameterize them. Author proposes the knowledge base based on non-classical logics: rough and fuzzy. This article presents results of first trials on the fuzzy rules for realization of selection operator. Usage of fuzzy rules and linguistic variables allows better mimic the subjective character of generalization process. Test were established on the data about roads segments coming from Topographical Database (TBD) two test areas. Conducted experiment proved the possibility of utilization of fuzzy rules in the generalization of geographic information. It may be very valuable to use the idea of rough sets and reducts for selection of the attributes which are the most significant in terms of the made decision. This will be the subject of author's further research. Presented research are the initial step for creation of knowledgebase based on non-classical logic (fuzzy and rough).
PL
Problem wykorzystania algorytmów inteligencji obliczeniowej do tworzenia baz wiedzy systemów generalizacji informacji geograficznej jest w ostatniej dekadzie niezwykle często poruszany w kontekście prac koncepcyjnych i ba-dawczych. Autorka referatu podjęła jednak próbę opracowania także prototypu narzędzia informacyjnego automatyzującego proces selekcji wielocechowych obiektów przestrzennych jako źródła danych dla tworzenia map topograficznych w różnych skalach. Opracowany system, wykorzystujący jako silnik obliczeniowy proces wnioskowania rozmytego, jest niezwykle efektywny obliczeniowo, pozwalając zarazem na pełną parametryzowalność systemu generalizacji.
PL
Artykuł prezentuje metodę generalizacji numerycznego modelu terenu dla potrzeb prezentacji rzeźby terenu na mapach topograficznych „nowej generacji”. Poprawna generalizacja numerycznego modelu terenu ma szczególnie istotne znaczenie dla zasilania systemów informacji geograficznej (GIS). Dla prowadzenia wiarygodnych analiz przestrzennych szczególnie istotne jest bowiem zachowanie rzeczywistego położenia punktów charakterystycznych kluczowych form terenu. Zdecydowano, że proces generalizacji numerycznych modeli terenu polegać będzie na generowaniu modelu o strukturze hybrydowej z najdokładniejszych danych wysokościowych dostępnych w zasobie geodezyjnym i kartograficznym, które do tego celu musiały zostać odpowiednio przygotowane. Danymi wykorzystywanymi w całym procesie były numeryczne modele terenu pozyskane technologią lotniczego skaningu laserowego w ramach systemu ISOK, a także dane fotogrametryczne z projektu LPIS. W ramach badań stworzono aplikację wykorzystującą w procesie generalizacji: ekstrakcję punktów charakterystycznych wybranymi metodami oraz punktów uzupełniających rozmieszczonych w regularnej siatce, a także ekstrakcję linii strukturalnych do utworzenia wtórnego NMT. Utworzony dla danego poziomu generalizacji model posłużył następnie do generowania warstwic w odpowiedniej skali, prezentujących rzeźbę terenu na mapach topograficznych.
EN
The paper presents the generalization methodology for data contained in digital terrain model (DTM) for the purpose of relief presentation on new topographic maps. An appropriate generalization process of digital terrain model is especially significant for geographic information systems (GIS). It is particularly important for reliable spatial analysis, therefore, to retain real position of characteristic points defining key landforms. It was decided that the proposed generalization process of digital terrain models was based on the hybrid structure of DTM generation from the most accurate height data in geodetic and cartographic resource. For this reason special application was developed which uses: an extraction of characteristic points and regularly distributed complementary points, as well as an extraction of structural lines to create a secondary DTM during generalization. The implementation of the whole process was carried out in Model Builder in ArcGIS 10. DTM created for a selected level of generalization was used then to generate contours for an appropriate scale, presenting the terrain on topographic maps. Two data source was used in presented research i.e. DTM from aerial laser scanning obtained in ISOK project and DTM created from photogrammetric data acquired in LPIS project. The proposed algorithm was tested on five areas representing different types of terrain: old glacial and young glacial landscape, low and high mountains and urban area. The results were compared for both data source. The statistical parameters were also calculated for the selected level of DTM generalization with regard to the raw data. For each test area DTM from LPIS and ISOK projects were positively generalized to hybrid structure which allowed for effective contours creation and acceptable relief representation on topographic maps in selected scale. Only few percent of initial data guaranteed appropriate cartographic accuracy in relief representation in result. As a conclusion authors indicate that full automation procedure of DTM generalization is not possible for whole Poland because of large morphometric diversity of our country. Presented research proved that achieving optimal results and satisfied cartographic accuracy can be obtained with usage of high resolution height data, exposed to the generalization algorithms, and supplemented by the current data from topographic data bases (TBD, BDOT).
7
Content available Operatory generalizacji warstwy zabudowy
PL
Regulacje prawne w zakresie funkcjonowania zasobu danych przestrzennych w Polsce implikują działania na rzecz interoperacyjności, harmonizacji oraz automatyzacji procesów. Zakładana automatyzacja procesów dotyczy także cyfrowej generalizacji modelu DLM, która ma zapewnić wieloreprezentację tej bazy danych. W przypadku GBDOT generalizacja jest również wykorzystywana podczas procesów pozyskiwania i aktualizacji danych. Założenie wysokiego stopnia automatyzacji generalizacji cyfrowej jest możliwe przy spełnieniu warunków: uporządkowania danych, ich klasyfikacji, hierarchizacji oraz zapewnienia jednoznaczności procesu. Badania autora dotyczą automatyzacji procesu generalizacji, polegającej na określaniu algorytmów dla operatorów generalizacji, z uwzględnieniem normy rozpoznawalności rysunku. Badane operatory to: upraszczanie, eliminacja, prostokątowanie, przesuwanie, łączenie, typyfikacja. Stosowanie normy rozpoznawalności rysunku eliminuje dotychczas definiowany przez użytkownika parametr w operatorach generalizacji, co pozwala na zachowanie jednoznaczności procesu oraz jego weryfikację.
EN
The legal regulations as regards functioning of the spatial data resources in Poland entail interoperability, harmonisation and automation of processes. The assumed automation concerns, among others, the digital generalization of DLM, which should allow multirepresentation of data. In the case of Georeference Database of Topographic Objects GBDOT the generalisation process is also employed during collection and updating of data. It is possible to satisfy the requirement of high automation level if the conditions of data orderliness, classification and hierarchisation are fulfilled and unambiguity of the process is ensured. The author’s research focuses on automation of the generalisation process. It consists in defining the algorithms for generalisation operators, taking into account the drawing recognisability norm. The following operators were examined: simplification, elimination, rectangularisation, shifting, joining and typification. The use of the drawing recognisability norm eliminates the parameter, which has been hitherto determined by the user for the generalisation operators. As a result, the unambiguity of the generalisation process is preserved and its verification is possible.
PL
Relacje topologiczne zbiorów danych stanowią ważną część modelu pojęciowego danych przestrzennych. Precyzyjne określenie zasad generalizacji stanowi ważną część opisu produktu, jakim są bazy danych tworzone na podstawie przepisów wykonawczych do ustawy o infrastrukturze informacji przestrzennej. Autor proponuje uzupełnienie obowiązujących przepisów o dodatkowe zapisy, pozwalające na precyzyjny opis relacji topologicznych pomiędzy jednostkami administracyjnymi a sieciami cieków w Bazie Danych Obiektów Ogólnogeograficznych (BDOO). Proponowane zmiany umożliwią też zbudowanie bazy danych w zakresie jednostek administracyjnych i sieci cieków, zgodnej z koncepcją MRDB.
EN
A set of generalization rules is an important part of the conceptual model for spatial databases created according to the regulations implementing the law on spatial information infrastructure. The author proposes to supplement the existing provisions by additional records to allow precise description of topological relations between administrative units and water courses in the General Geographic Database. The proposed amendments will also allow to build a database for the administrative units and the network of watercourses, compatible with the concept of MRDB.
PL
Wieloletnie badania autora nad algorytmami stosowanymi w procesie generalizacji cyfrowego modelu krajobrazu pozwalają autorowi na określenie niezbędnych elementów do jego automatyzacji, do których należy przede wszystkim zaliczyć: uporządkowanie danych i jednoznaczność procesów. W niniejszym artykule autor przedstawia wyniki analiz nad zastosowaniem i wpływem punktów stałych obiektów w generalizacji poprzez zbadanie zachowania się wybranych algorytmów upraszczania. Zgodnie z definicją punktów stałych powinny one pływać w zasadniczy sposób na jakość procesu upraszczania poprzez swoją niezmienność w przekształceniach oraz możliwość zastosowania jednoznacznej klasyfikacji danych w procesie. Dla uwidocznienia wpływu punktów stałych na proces upraszczania autor wybrał fragment wybrzeża Walii, a następnie poddał go procesowi upraszczania z wykorzystaniem wybranych algorytmów (Douglas-Peucker, Visvalingam-Whyatt, Wang, Chrobak). Przeprowadzony test daje czytelnikowi jednocześnie możliwość porównania wybranych algorytmów z wykorzystaniem normy rozpoznawalności.
EN
Basing on his long-term research on the algorithms used for the digital landscape model generalization, the author is able to determine the elements which are crucial for the automation of the very process. These elements are, above all, data arrangement and clarity of the processes. The author has carried out the analysis of the application and the influence which the objects’ fixed points have in the model generalization – he has investigated how particular simplification algorithms behave. In the paper he presents the results of his analysis. According to the definition, fixed points should have a significant influence on the simplification process quality. This is because they not only remain invariable in the transformations, but also let us apply the clear data classification in the process. In order to demonstrate the influence of the fixed points on the simplification process, the author chose a fragment of the Welsh coast and carried out the simplification process, using particular algorithms (Douglas-Peucker, Visvalingam, Wang, Chrobak). The test gives the reader an opportunity to compare the algorithms using the recognition standard.
PL
Norma rozpoznawalności wprowadzona do procesu upraszczania powoduje jednoznaczność otrzymanych wyników procesu upraszczania. Zastosowanie normy jest możliwe dla innych algorytmów, lecz należy je przekształcić w zależności od parametrów wymaganych przez poszczególne algorytmy. AIgorytm Chrobaka wykazał się najmniejszymi zmianami w zakresie liczby wierzchołów usuniętych z krzywej, czego efektem jest prawidłowe odzwierciedlenie rzeczywistości geograficznej. Wybrane do porównania algorytmy (Douglasa-Peuckera, Langa, Reumanna- Witkama) cechuje jedna wspólna wada jaką jest jedynie odrzucanie wierzchołków krzywej pierwotnej. Autor podaje propozycję aby określać te algorytmy mianem algorytmów "odrzucania". Pojawienie się konfliktów jest nie do uniknięcia, jednakże liczba tych konfliktów jest jedną z miar jakości przeprowadzonego procesu upraszczania. AIgorytm Chrobaka można stosować bez ograniczeń ilościowych dla danych źródłowych i powinien on stać się jednym z algorytmów stosowanych w narzędziach GIS, jako alternatywny w stosunku do zaprezentowanych algorytmów. AIgorytm Chrobaka jest algorytmem globalnym (analiza całej krzywej),jednakże jego wynik zachowuje lokalne ekstrema krzywej, dzięki czemu przebieg krzywej wynikowej jest adekwatny do faktów geograficznych.
EN
The operator of simplification is one of the most widely used in cartography, and now there are many algorithms performing this process automatically. In 1999, Chrobak developed his own algorithm based on the value of drawing recognition with the use of elementary triangle for testing curve. This algorithm does not provide the possibility of introducing any value of tolerances (linear or angular), but only the value of the target scale. In this paper, the author made attempt to compare Chrobak's algorithm and other algorithms functioning in GIS. The results are not so surprising but very interesting from the point of view of rendering geographical facts in different scales. When comparing the number of vertices, remaining after simplification of various algorithms with the result of Chrobak;s algorithm, the obtained results differed even four times. The three algorithms compared should be called rejection algorithms, because they do not fulfill the basic condition that is .similarity. in relation to the initial curve.
EN
Recent years the cataclysm of flood has occurred in many regions around the world. For this reason, so much attention is focused on prediction of this cataclysm by creating flood risk maps and hydrodynamic – numerical simulation of flood water which are based on Digital Terrain Model (DTM). The modern techniques for automatic data acquisition provide very abundant amount of points. Actually, Light Detection and Ranging (LiDAR) is the most effective data source for DTM creation with density of one to few points per square meter and good height accuracy of less than 15 cm. This high redundancy of data is essential problem for algorithms used in programs for flood modeling. Many software generating such models are restricted with respect to the maximum number of points in DTM. Hundreds of thousands of points are too large number for complex calculations which describe fluid model of the flood water. In order to obtain reliable and accurate results, it is necessary to have DTM with an appropriate accuracy. The flood disaster also occurs in large areas what usually is associated with large data sets. However, it is possible to provide suitable DTM for flood modeling by its generalization without losing its accuracy, which could still ensure sufficient precision for hydrodynamic – numerical calculations. In this paper six reduction algorithms were tested to obtain DTM with small number of points and with accuracy comparable to the original model created from LiDAR data. The main criteria for this comparison was the relation between accuracy and reduction coefficient of final result. Methods used in this research were based on different DTM structures. GRID, TIN and hierarchical structures were compared in various approaches to obtain the most reduced and the most accurate terrain model of two study areas. As the result of the experiment the best methods for data reduction were chosen. Over 90% reduction rate and less than 20 cm root mean standard error were achieved in practice for different types of terrain with respect to input DTM. It was noted that hybrid and quad-tree grid based models can be even more efficient than a typical uniform GRID or TIN one.
EN
Extraction of building boundaries is a n important step towards 3D buildings reconstruction. It may be also of interest on their own, for the real estate industry, GIS and automated updating of cadastral maps. In this paper we propose a comprehensive method for an automated extraction and delineation of building outlines from raw airborne laser scanning data. The presented workflow comprises three steps. It starts with identification of the points belonging to each singular building. The second step is to trace the points that compose a building boundary. In the last step an adjustment process is applied, that aims in boundary lines regularization. The first step – building detection is a most computationally expensive process and has a fundamental importance for the whole algorithm. A proposed approach is to include building address points that give exact information about building location. This additional information highly reduces the complexity of the building points extraction.
PL
Potrzeba gromadzenia informacji wynika z istoty społeczeństwa informacyjnego, w którym brak jest czynnika monopolizującego powstawanie, przetwarzanie i zachowywanie informacji. Przyjęty model rzeczywistości zależy od celu jakiemu ma służyć, więc jest abstrakcyjny i częściowy. Wynika to między innymi z tego, że nie ma modeli uniwersalnych (Pachelski, 2003). W branży geodezyjnej i kartograficznej, w związku z przyjętymi modelami pojęciowymi obiektów zgromadzonych w poszczególnych zakresach tematycznych wg INSPIRE (INSPIRE, 2009a; 2009b; IGiK, 2009), pojawiła się ostatnio możliwość wprowadzenia odpowiednich modyfikacji w modelach pojęciowych dotyczących danych topograficznych w powiązaniu z danymi ewidencyjnymi, a co za tym idzie szansa na jednokrotne pozyskiwanie i aktualizację danych georeferencyjnych. Oznacza to, że bazy państwowego zasobu geodezyjnego i kartograficznego w Polsce muszą być optymalnie wykorzystane, a ich organizacja powinna umożliwić integrację z innymi bazami danych. Według Ustawy o infrastrukturze informacji przestrzennej (IIP . akronim angielski INSPIRE) dane z Bazy Danych Georeferencyjnych (BDG), będącej w kompetencji Głównego Urzędu Geodezji i Kartografii (GUGiK, 2009) będą osnową geometryczną dla wszystkich urzędowych opracowań georeferencyjnych w Polsce (Ustawa, 2010). Nie jest wymagane, aby baza prowadzona przez Służbę Geodezyjną i Kartograficzną musiała zawierać wszystkie dostępne dane potrzebne w opracowaniach branżowych. Wymagana jest za to jej interoperacyjność z bazami wykorzystywanymi do realizacji wielu zadań rządowych, wymagających rozszerzenia atrybutowego danych geometrycznych.
EN
Quick and effective updating of the Topographic Database is essential for realization of the assumptions of the INSPIRE Directive. Buildings, as one of the main elements of the reference databases, should be registered at the greatest level of accuracy. In the paper, options of supplying Multiresolution Database (MRDB) with data connected with buildings and taken from the Land and Property Register (EGiB) are presented. The study includes analyses of the following databases: the Topographic Database, the Land and Property Register and databases of the Central Statistical Office (GUS) with special emphasis put on buildings. The study intends to assess the possibility of harmonization of databases on the level of buildings layers. In the next part of the work, the way to supplement buildings class in the Topographic Database was suggested. The following experiments are described: import of building geometry from the Land and Property Register to the Topographic Database and verification of usefulness of data from the database of the Central Statistical Office. It is suggested to link the addresses taken from the Land and Property Register with the address points from MRDB and to verify them during the general census carried out by Central Statistical Office. The study concludes with the results of analyses and researches carried out.
EN
Two known approaches to complexity selection are taken under consideration: n-fold cross-validation and structural risk minimization. Obviously, in either approach, a discrepancy between the indicated optimal complexity (indicated as the minimum of a generalization error estimate or a bound) and the genuine minimum of unknown true risks is possible. In the paper, this problem is posed in a novel quantitative way. We state and prove theorems demonstrating how one can calculate pessimistic probabilities of discrepancy between these minima for given for given conditions of an experiment. The probabilities are calculated in terms of all relevant constants: the sample size, the number of cross-validation folds, the capacity of the set of approximating functions and bounds on this set. We report experiments carried out to validate the results.
PL
Wśród elementów koncepcji wielorozdzielczej/wieloreprezentacyjnej bazy danych topograficznych (WBDT) związanych z koniecznością harmonizacji baz źródłowych, opracowania technik współistnienia, wymiany, eksploatacji czy aspektów prawnych, należy przewidzieć również wypracowanie modelu niezmienników, który zapewniałby spójność geometrii obiektów bazy. Takie podejście ma kluczowe znaczenie w procesie generalizacji obiektów, wiązania geometrii pierwotnej i wtórnej obiektów bazy, pozwala na fragmentaryczną wymianę czy aktualizację danych. Obiekt bazy posiada geometrię pierwotną (nieprzekształconą) możliwie najdokładniejszą oraz jedną szczegółową informację opisową. Obiekt bazy może przybierać różne wersje (geometrie wtórne) powstałe na skutek generalizacji i/lub redakcji. Koncepcja WBDT powinna zakładać występowanie określonych poziomów uogólnienia obiektów pierwotnych bazy na różnych fragmentach obszarowych oraz występowanie obiektów pierwotnych i wtórnych na tym samym obszarze. W swoim założeniu WBDT jest bazą niejednorodną, dlatego dobra informacja o danych i właściwe zarządzanie bazą są konieczne w celu uniknięcia nieporozumień.
EN
Among the various elements of the Multi-Resolution/Representation- Database (MRDB) that relate to the synchronization of database sources, the objects' correlation techniques, the data exchange and usage, as well as to the legal aspects, one ought to allow for the creation of invariable object features which would make for the cohesion of the database objects. Such an approach is essential in the processes of object generalization and bonding of the original and derivative geometry. Additionally, it allows partial data exchange and object updates. An object in the MRDB database has an original (not yet distorted) geometry which is most accurate and a detailed description. Moreover, the same object can have multiple versions (derivative geometries) created upon its' generalizations and/or editing. The MRDB-type database concept should, therefore, be based on the premise of several given object generalization levels of different special areas as well as on the existence of original and derivate objects in the same area. By definition, MRDB is a heterogeneous database which is why a thorough data information and proper database management is essential in order to avoid possible confusion.
PL
W artykule omówiono system tworzenia, przechowywania oraz pozyskiwania numerycznego modelu terenu (NMT) dla baz danych topograficznych. Zwrócono uwagę na problem jednorodności danych w zakresie NMT. Brak jednorodności danych wymusza stosowanie narzędzi generalizacji w funkcjonowaniu NMT w wielorozdzielczej/ wieloreprezentacyjnej bazie danych. Autor wskazuje na możliwość zastosowania zmodyfikowanej metody Chrobaka do przeprowadzenia upraszczania numerycznego modelu terenu po uwzględnieniu wydzieleniu jednorodnych obiektów modelu.
EN
In the article was discussed a current system of creating, storing and acquiring Digital Terrain Model (DTM) for topographical databases. Author paid attention to the problem of homogeneities given in DTM. The lack of the homogeneity of data is forcing into applying the tools of generalization in DTM functioning in Multiresolution/Multirepresentation Database. The author is pointing out to the possibility of applying the modified Chrobaka method for conducting simplification of the numerical model of the area after taking into consideration allocation of homogeneous objects of the model.
17
PL
W artykule przedstawiono wyniki analizy generalizacji nazw regionów fizycznogeograficznych, szczytów i przełęczy na mapach w siedmiu wielkich atlasach ogólnogeograficznych.
EN
Generalization of names has not been discussed in cartographic literature. The article attempts to formulate the rules which govern generalization basing on the analysis of geographical names on the maps of Sudety mountains and Iberian peninsula in the following seven major geographical atlases: Atlas Świata published by The Topographical Service of The Polish Army (1962-1968), The World Atlas - the English version of the Soviet Atlas mira (1967), The Times Atlas of the World (1999), Geograficzny Atlas Świata (Geographical Atlas of the World) published by PPWK (Polish Cartographical Publishers) (1997), Wielki llustrowany Atlas Świata (The Great Illustrated Atlas of the World) published by GeoCenter (1993), Brockhaus Enzyklopadie Weltatlas (1993) and Gran Atlas Aguilar (1969). Objects for analysis are chosen according to numerous criteria. Land lowerings - lowlands, basins and passes are omitted much more frequently than mountains, uplands and peaks. This supports the views of W. Horn (1965) on the priority of generalization of concave forms over the generalization of convex ones. Another important criterion for selection of objects is their height. Names are given to highest mountain ridges and their top peaks. In the case of passes their relative height is important. Location of regions and their role are crucial e.g. names are given to flank parts of mountain ridges (Łużyckie Mountains), passes located on major transportation routes, mountain ridges which lie on state borders (Pyrenees). Double naming is the least solved issue. A rational solution - linking the name choice of a trans border object to the main topic area presented on a map - is rarely applied. It is noteworthy that most analyzed atlases use Tchech names of trans border ridges in Sudetes, irrespectively of the main topic area of the map. When double names are used on maps, they are sometimes placed in an inconsistent way, even on a single map (fig. 4). Analysis of maps within one atlas shows many irregularities, e.g. more names being placed on a map in a smaller scale, or various heights of the same peak. A comparison of name generalization in selected atlases reveals inconsistency also on maps in similar scales (fig. 9,10,11). As a rule the maps of the country where the atlas was prepared show more detail. The article suggests some models of generalization of names of geographical regions, peaks and passes (fig. 12, 13, 14). Consequent stages of the process provide less information, it is only in the case of regions that an additional piece of information is presented at a certain stage (name of a bigger region).
EN
The attempts at formalization of cartographic knowledge and its implementation in computer-aided environment to achieve the most automated level of the process have been performed for over ten years. For the past couple of years, the research on generalization have been focused on some particular tasks such as: collecting cartographic knowledge aimed at identifying the principles regulating the generalization process; formalizing of generalization principles; developing generalization models; evaluating new cartographic algorithms and data structures supporting generalization processes (ex. Applying the Delauney triangulation in the process of shifting buildings). The predominant sort of elaborations, however, concerns the generalization of either maps or spatial databases on large scales. The reason of such a state of art is directly connected with a wide sort of practical solutions of such kind of data. Basic spatial databases on country levels have been kept exactly on the scales of 1:10 000, 1:25 000 and 1:50 000 – and hence the need for automated generalization. However, until now, there are neither general standards nor unified principles of small-scale maps generalization. Both complexity and specific character of generalization process in overview-scales, which in practice bases mostly on an author’s experience and intuition as well as on the need for taking a map context into account, make the whole task very difficult and complex. The main purpose of the performed experiments was to establish possibilities and limitations of the automated generalization of small-scale spatial data. The problem was studied from the point of view of its formalization as well as further development of a knowledge base concerning small-scale spatial data generalization in commercial software DynaGEN by Intergraph. The scope of the studies covered carrying out two generalization experiments. The first one concerned the generalization of thematic layers – road network and settlement for the area of the Lower Silesia Province. The second one was applied to the generalization of the same thematic layers in the Lodz Province.
PL
Próby formalizacji wiedzy kartograficznej oraz jej implementacji w środowisku komputerowym, w celu uzyskania jak największego stopnia automatyzacji procesu, podejmowane są już od ponad dziesięciu lat. W ciągu ostatnich lat badania dotyczące generalizacji skupiały się wokół kilku zagadnień takich jak: pozyskiwanie wiedzy kartograficznej w celu identyfikacji reguł rządzących procesem generalizacji; uściślenie (formalizacja) zasad generalizacji; rozwój modeli generalizacji; opracowywanie nowych algorytmów generalizacji oraz próby przenoszenie na grunt generalizacji kartograficznej algorytmów i struktur danych wspomagających prowadzenie procesu generalizacji, np. zastosowanie triangulacji Delauney’a w procesie przesuwania budynków. Przeważająca część opracowań dotyczy jednak generalizacji map lub danych przestrzennych w skalach dużych. Przyczyny należy upatrywać w szerokim zastosowaniu praktycznym tego typu danych. Podstawowe bazy danych przestrzennych na szczeblach krajowych utrzymywane są właśnie w skalach 1:10 000, 1:25 000 i 1:50 000, stąd potrzeba ich automatycznej generalizacji. Nie opracowano jednak dotychczas ani spójnych standardów ani ujednoliconych zasad generalizacji map małoskalowych. Złożoność i specyfika procesu generalizacji map w skalach przeglądowych, który w praktyce bazuje w dużej mierze na doświadczeniu i intuicji redaktora, oraz konieczność uwzględnienia kontekstu mapy, powoduje, że jest to zadanie niezwykle skomplikowane. Podstawowym założeniem prezentowanych badań jest określenie możliwości i ograniczeń automatycznej generalizacji danych przestrzennych małoskalowych. Problem przedstawiono z punktu widzenia możliwości formalizacji zasad generalizacji oraz pozyskania kartograficznej bazy wiedzy, związanej z generalizacją danych małoskalowych. W badaniach wykorzystano komercyjne środowisko programowe służące do wspomagania procesu generalizacji DynaGEN, firmy Intergraph. Opracowanie dotyczy przejścia od poziomu szczegółowości 1:250 000 do poziomów szczegółowości 1:500 000 oraz 1:1 000 000 dla dwóch warstw tematycznych: dróg oraz osadnictwa na obszarach badawczych BDO obejmujących województwo dolnośląskie oraz łódzkie.
EN
In this study the authors present a proposal of spatial data integration in Poland through creation of a homogeneous georeference data model for all state geodetic and cartographic resources managed by geodetic and cartographic offices. On the basis of this model a public spatial data register (PRDP) might be created, which should be the official reference spatial database in Poland. The presented concept assumes that the PRDP database would be a digital landscape model represented by definite object classes selected because of their reference significance. The PRDP database based on this model would be separated from its visualization, i.e. from the methods of digital cartographic model creation. The concept of a homogeneous georeference data model assumes substitution of several hitherto existing technical standards with two new ones: m a standard describing the whole catalogue of spatial object classes and their attributes, m a standard describing visualization of particular object classes in all scales used in the state geodetic and cartographic resources. Detailed analysis of the present state of technical standards allowed to formulate technical and organizational assumptions for creation of a homogeneous georeference data model, which is based on 41 object classes (with their attributes and relations to other official registers) and preliminary assumptions for their visualization.
PL
W artykule omówiono zagadnienie zastosowania systemów generalizacji danych przestrzennych opartych na logice rozmytej do modelowania rzeźby terenu na różnym poziomie uogólnienia.
EN
Classic filtering methods of raster data (e.g. digital terrain model), such as median or gaussian filtering level the result surface, and consequently flatten the end results. A significant modification of results' range, understood as narrowing of the scope of relative altitudes in the test area, is not the only side effect of the process of DTM generalization. Gaussian filtering, and especially non-linear median filtering leads to non-linear morphometric modifications of generalized terrain relief. Structural forms common for high mountain relief, such as ridge lines and deeply cut river valleys are flattened more than other forms. In the article the author attempts to elaborate a non-linear method of raster data filtering by defining the objective generalization rules of local character. These rules determine the global process of cartographic generalization of raster-type data. In order to build a database which would enable the realization of the process of spatial data generalization, fuzzy inference systems (FIS) are applied. Application of fuzzy logic makes it possible to define generalization rules for non-linear filtering of a digital terrain model recorded in the form of an altitude matrix. In the discussed context FIS can be interpreted as a non-linear digital terrain model transformation. Compared to other non-linear modeling techniques FIS has many advantages: - it keeps the parameters of source data distribution (slant, range, etc.,) - enables open and easy to interpret definition of rules in the data base (in relation to scale, purpose, cartographic school, etc.), - it bases on linguistic variables, which facilitates the understanding of the generalization process, - it facilitates scalability of the results through parametrization of the membership function. Application of fuzzy logic and generalization systems using fuzzy inference makes it possible to automatize the generalization process while preserving subjectivity of cartographic generalization. The final effects depend on the FIS database created by the researcher.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.