Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 23

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
PL
Wśród oprogramowania dającego możliwości przeprowadzania analiz sieciowych czołowe miejsca zajmują, będący w ofercie firmy Esri, pakiet ArcGIS z rozszerzeniem Network Analyst oraz rozszerzenie pgRouting dla bazy danych przestrzennych PostGIS. Celem pracy było wykazanie cech wspólnych i różnic, jakie wiążą się z prawidłowym przeprowadzeniem trójwymiarowych analiz sieciowych w tych programach oraz z właściwą prezentacją uzyskanych wyników. Stwierdzono, że zarówno oprogramowanie komercyjne, jak i wolne oprogramowanie oferuje poprawnie działające narzędzia do analiz sieciowych w przestrzeni 3D. W programie ArcGIS szczególnie istotne było właściwe przygotowanie danych 3D, czego nie ułatwiają możliwości edycyjne i wizualizacyjne dostępnych narzędzi. Konieczne było zaproponowanie własnego rozwiązania w zakresie kontroli poprawności topologicznej. Analizy 3D są wykonywane dokładnie tak samo jak analizy 2D. Jednak w praktyce okazuje się, że prezentacja wyników analiz w środowisku 3D jest utrudniona, a niektóre opcje dostępne w 2D, w środowisku 3D nie działają poprawnie. Moduł pgRouting domyślnie ograniczony jest do przestrzeni dwuwymiarowej, lecz dzięki dostępności kodu źródłowego możliwa była autorska modyfikacja odpowiednich funkcji, co pozwoliło na przejście do przestrzeni 3D. Baza danych przeznaczona do przeprowadzania analiz sieciowych musi spełniać specyficzne wymagania stosowanych algorytmów i w związku z tym konieczne było jej zbudowanie w wieloetapowym procesie, który nie w każdym przypadku może być zautomatyzowany. PostGIS, podobnie jak inne systemy zarządzania bazami danych, nie dysponuje własnymi narzędziami do wizualizacji danych i wyników, dlatego niezbędne było wskazanie dodatkowego oprogramowania zapewniającego taką funkcjonalność.
EN
There are currently two pieces of software that seem to be holding the leading position in the area of network analysis, i.e. ArcGIS with Network Analyst extension by Esri and pgRouting extension for PostGIS spatial database. The aim of the study was to present the differences and similarities observed while correct execution of network analyses as well as proper presentation of results in both pieces of software are performed. The study proved that both 3D network analysis tools offered correctly operating, commercial and open source software functionality. In ArcGIS proper preparation of 3D data was essential, which, unfortunately, was not facilitated by available editing and visualization tools. For example, proposing own solution for topological correctness was necessary. 3D analyses are performed in exactly the same way as those in 2D. However, the experience show, that presentation of results for 3D data is impeded and some options available for 2D do not work properly in 3D environment. The pgRouting module is, by default, limited to 2D space. However, the accessibility of source code allowed the authors to make own modifications of particular functions, which enabled moving to 3D. As a database designed for network analyses has to meet specific requirements concerning algorithms to be used, it was necessary to develop it in a multi-step process, which may not be susceptible to automation in each case. Similarly to other database management systems, PostGIS does not offer its own tools for data and results visualization and thus it was necessary to indicate additional software with the needed functionality.
PL
Od kilku lat można obserwować próby zastosowania metod i narzędzi systemów informacji geograficznej do modelowania ewakuacji z budynków. Na potrzeby ewakuacji, ale także nawigacji, przestrzeń wewnątrz budynków jest zwykle modelowana za pomocą grafu, określającego wzajemne powiązania pomiędzy pomieszczeniami, w którym obiekty punktowe – węzły reprezentują pomieszczenia, a krawędzie – obiekty liniowe, łączą pary węzłów. Celem prac zaprezentowanych w artykule było zbadanie, czy możliwe jest zastosowanie danych w postaci rastrowej (bazujących na koncepcji używanych w robotyce mobilnej siatek zajętości) do modelowania procesu ewakuacji. W szczególności postawiono tezę, że dane rastrowe nie tylko umożliwiają modelowanie ewakuacji z budynków, ale również pozwalają na uwzględnienie w analizie czynników, których nie można ująć w modelu wektorowym, bądź jest to bardziej skomplikowane. Tezę tę udowodniono przez wiele eksperymentów na danych reprezentujących rzeczywisty obiekt. Przeprowadzone badania wykazały zalety danych w postaci rastrowej: łatwość uzyskania na podstawie zapisanych cyfrowo planów architektonicznych oraz możliwość (dzięki zastosowaniu narzędzia Koszt odległości) określenia nie tylko odległości z każdego miejsca w budynku do najbliższego wyjścia ewakuacyjnego, ale również uwzględnienia w tym samym modelu przeszkód utrudniających przemieszczanie się i oszacowania ich wpływu na wydłużenie czasu dotarcia do celu. Zaproponowana koncepcja określania kosztu przemieszczania jako funkcji odległości od ścian pozwoliła na uzależnienie prędkości ruchu od szerokości pomieszczeń.
EN
Over the recent years, attempts to use geographic information systems methods and tools for modelling evacuation of buildings can be observed. In applications related to evacuation and, also, navigation, the space inside buildings is usually modelled with the use of graphs that represent interrelations between rooms. Then point objects (nodes) represent rooms and edges (linear objects) link pairs of nodes. The objective of the work described in this paper is to examine whether it is possible to use raster data – based on the occupancy grid concept used in mobile robotics – for modelling evacuation. In particular, the study thesis assumes that raster data are not only applicable to modelling evacuation, but they also enable us to consider factors, which either cannot be included in the vector model at all or their consideration proves to be much more complicated. The thesis was proven in a series of experiments on data representing a real object. The studies revealed advantages gained while using raster data for the above mentioned purpose, i.e.: the availability (easily obtainable from architectural plans) and possibility to determine the distance between every location in the building and the emergency exit (owing to Cost Distance tool) and, also, the possibility to consider obstacles that impede movement, as well as to assess their impact on the time needed to reach the destination. The proposed concept of determining the movement cost as a function of the distance from the walls allowed to express the speed of movement as the function of the rooms’ width.
3
Content available Problematyka geokodowania zdarzeń drogowych
PL
Geokodowanie jest to proces określania położenia obiektów wyrażonego za pomocą różnego rodzaju identyfikatorów geograficznych, najczęściej adresu. Odbywa się poprzez porównanie odpowiednich elementów informacji adresowej z pewnym materiałem odniesienia. Podstawą skutecznego przeprowadzenia geokodowania jest z jednej strony posiadanie odpowiedniego materiału źródłowego, który określi położenie adresu, natomiast z drugiej precyzyjne opisanie poszukiwanej lokalizacji. Szczególnymi obiektami, których położenie trzeba określać tą metodą, są miejsca zdarzeń drogowych, takich jak wypadki i kolizje. Niewiele z nich ma bowiem położenie wyrażone za pomocą współrzędnych. W większości przypadków lokalizacja ogranicza się do wskazania najbliższego adresu, kilometrażu drogi, skrzyżowania lub nawet swobodnego opisu. Najłatwiej dostępnym w Polsce źródłem informacji adresowej jest Open Street Map (OSM) – baza danych, która powstaje na podstawie danych gromadzonych przez wolontariuszy. Jest ona udostępniana nieodpłatnie i dla dowolnego zastosowania. Jednym z jej elementów jest informacja adresowa. Ponadto zaletą OSM jest także to, że w przeciwieństwie do większości popularnych portali mapowych rejestruje położenie słupków pikietażowych, umieszczanych wzdłuż dróg. Wobec dostępności odpowiedniego oprogramowania i stwierdzonej w literaturze porównywalności stosowanych algorytmów celem pracy nie jest analiza samego procesu geokodowania, lecz z jednej strony zbadanie dostępności dla obszaru Polski odpowiednich danych referencyjnych, a z drugiej próba zwrócenia uwagi na sposób zapisu informacji adresowej, która ma podlegać geokodowaniu, ze szczególnym uwzględnieniem opisu lokalizacji zdarzeń drogowych. Zbadano, czy wobec zupełnie niesformalizowanego opisu lokalizacji geokodowanie w ogóle będzie możliwe do przeprowadzenia. Zaproponowano metody geokodowania dla występujących w praktyce różnych form opisu miejsca zdarzenia oraz zasugerowano sposoby rozwiązania problemów pojawiających się podczas geokodowania.
EN
Geocoding is the process of determining the position of features, expressed by different kinds of geographic identifiers, usually addresses. This is done by comparing the relevant elements of address information with reference material. The basis for effective implementation of geocoding is, on the one hand, right source material, which determines the position of the address, and, on the other hand, precise description of the required location. Particular features, whose positions need to be specified using this method are traffic incidents such as accidents and collisions. Few of them have in fact the position expressed by coordinates. In most cases the location is limited to indication of the nearest address, road chain age, intersection, or even free-form description. The most easily accessible source of address information in Poland is Open Street Map (OSM) – a database that is created on the basis of data collected by volunteers. It is provided free of charge and for any application. One of its elements is address information. In addition, OSM has also the advantage that, unlike most popular mapping portals, it records kilometer posts, placed along roads. Considering availability of appropriate software and comparability of used algorithms found in the literature, the objective of this study was not to analyze the geocoding process itself, but on the one hand to investigate the availability of relevant reference data for the area of Poland, and on the other hand an attempt to draw attention to the method of recording address information, which is subject to geocoding, with particular emphasis on the location of traffic incidents. It was examined whether because of completely informal description of the location, geocoding in general will be possible to carry out. Methods of geocoding of different forms of description of incident location existing in practice were proposed, and ways to solve problems that arise during geocoding were suggested.
PL
Bank Danych Lokalnych (BDL) jest, obejmującym całą Polskę, uporządkowanym zbiorem informacji o sytuacji społeczno-gospodarczej, demograficznej, społecznej oraz stanie środowiska. Informacja ta dotyczy województw, powiatów i gmin oraz jednostek statystycznych (NTS). Dane zawarte w BDL są dostępne za pośrednictwem Internetu i można z nich korzystać bezpłatnie w nieograniczonym zakresie. Przeznaczeniem tego zbioru jest prowadzenie wielowymiarowych analiz statystycznych, zwłaszcza że obejmuje nie tylko dane bieżące, ale również archiwalne, co pozwala badać zmienność opisywanych zjawisk. Jednak oprócz udostępniania danych statystycznych, portal BDL nie oferuje żadnych narzędzi do tego celu. Potencjalni użytkownicy zdani są na konieczność posiadania własnych danych georeferencyjnych i umiejętność powiązania ich z pobranymi danymi tabelarycznymi. Możliwości rozwiązania tego problemu otwiera sukcesywne wprowadzanie w życie zapisów dyrektywy INSPIRE i ustawy o infrastrukturze informacji przestrzennej. Zgodnie z postanowieniami załączników do tych aktów prawnych powinny powstać i być udostępniane dane dotyczące podziału administracyjnego i jednostek statystycznych. W artykule przedstawiono koncepcję geoportalu, który dawałby możliwość geowizualizacji danych BDL i przeprowadzania analiz o charakterze przestrzenno-czasowym. Przeanalizowano wymaganą przez taki geoportal funkcjonalność, obejmującą między innymi wykonywanie: prezentacji mapowych dla dowolnie wybranego okresu czasu, wykresów prezentujących czasową zmienność wybranego zjawiska na określonym obszarze i umożliwiających badanie relacji pomiędzy zjawiskami, wyboru obiektów spełniających kryteria odnośnie położenia lub wartości atrybutów. Zbadano ponadto sposób udostępniania danych przez BDL oraz zasugerowano usprawnienia, sprzyjające automatyzacji tego zadania. Zaprezentowano także przykładową implementację geoportalu. Zaproponowano zastosowanie wyłącznie wolnego oprogramowania, co powinno docelowo ograniczyć koszty związane z pozyskaniem odpowiednich narzędzi i ich aktualizacją.
EN
The Local Data Bank (BDL) is an ordered set of information on socio-economic, demographic, social and environmental conditions covering entire Poland. This information applies to provinces, districts, municipalities, and statistical units (NTS). The data contained in BDL are available via the Internet and can be used free of charge to an unlimited extent. The purpose of this collection is to conduct multivariate statistical analysis, especially since it covers not only current but also archive data, which enables users to explore the variability of described phenomena. However, except providing statistical data, BDL website does not offer any tools for this purpose. Potential users must have their own geo-referenced data and be able to join them with downloaded tabular data. Gradual implementation of the INSPIRE Directive and the Law on spatial information infrastructure makes it possible to solve this problem. In accordance with the provisions of the annexes to those legal acts the data on the administrative and statistical units should be developed and made available. The paper presents the concept of a geo-portal, which would offer the possibility to geo-visualize BDL data and to carry out spatio-temporal analysis. Functionality required by the geo-portal was analyzed, including, among others, creation of maps for a selected time period, creation of graphs presenting temporal variability of selected phenomena in a given area and allowing examination of the relationship between the phenomena, selection of objects that meet the criteria concerning their position or attribute values. The way the data are shared by BDL was also examined and improvements that allow automating this task were suggested. Sample implementation of the geo-portal was also presented. Only free software was proposed to use, which should ultimately reduce the costs associated with acquiring and updating of suitable tools.
5
Content available remote Analizy sieciowe w bazach danych przestrzennych
PL
W artykule opisano działanie dostępnych w wybranych systemach zarządzania bazami danych, przestrzennych funkcji znajdowania najlepszej trasy przejazdu pomiędzy dwoma punktami. Szczegółowo przeanalizowano wymagania względem danych niezbędnych do przeprowadzenia tego typu analiz oraz procedurę odpowiedniego przygotowania zbioru danych sieciowych. Porównano systemy pod kątem przyjazności dla użytkownika, łatwości przygotowania danych, różnorodności dostępnych funkcji oraz stopnia skomplikowania wymaganych zapytań.
EN
The paper describes the functionality available in chosen spatial data-base management systems to find the best route between two points. Requirements for data necessary to carry out such analysis and the procedure of proper network dataset preparation are thoroughly analysed. Both systems are compared in terms of user friendliness, ease of data preparation, the variety of available functions and the complexity of required queries.
PL
Od kilku lat użytkownicy oprogramowania GIS mają do dyspozycji zbiór danych stanowiący swego rodzaju alternatywę dla produktów komercyjnych. Jest nim OpenStreetMap (w skrócie OSM) – projekt mający za cel zbudowanie edytowalnej i dostępnej bez ograniczeń mapy świata. Mapa taka tworzona jest na podstawie danych z ręcznych odbiorników GPS, zdjęć lotniczych oraz innych dostępnych źródeł danych, a także szkiców wykonywanych w terenie. Zgromadzona informacja zapisywana jest w jednej, centralnej bazie danych, z której może być pobierana w postaci obrazu mapy zaprezentowanego przy użyciu wybranej symboliki lub danych wektorowych. Dane z takiego źródła mogą być zastosowane między innymi do przeprowadzania analiz sieciowych, z których najszerzej wykorzystywana i najczęściej spotykana jest funkcja znajdowania optymalnej trasy pomiędzy dwoma punktami. Aby wynik takiej analizy można było uznać za wiarygodny, użyte dane muszą się charakteryzować odpowiednią jakością. Ponieważ baza danych OSM budowana jest przez wolontariuszy, nie są sformułowane żadne plany jej systematycznego rozwoju oraz brak jest odgórnej kontroli jakości. Dlatego w pracy zaproponowano metody i narzędzia, które pozwolą zweryfikować przydatność zgromadzonych do tej pory danych dla celów analiz sieciowych, jak również poprawić znalezione błędy. Spośród rozważanych dla danych geograficznych aspektów jakości, szczególną uwagę zwrócono na: kompletność, dokładność położenia, spójność topologiczną i dokładność czasową. Dwa pierwsze problemy wymagają w praktyce porównania z rzeczywistym przebiegiem dróg i ulic. Do rozwiązania problemu spójności geometrycznej zasugerowano wykorzystanie odpowiednich reguł topologicznych badających wybrane relacje przestrzenne pomiędzy obiektami geograficznymi. Po zasygnalizowaniu wykrytych w ten sposób błędów, można je poprawiać zarówno metodami automatycznymi, jak też metodami półautomatycznymi bądź ręcznymi.
EN
For several years now, GIS users have at their disposal the data set constituting some kind of alternative to commercial products. It is the OpenStreetMap (OSM) – a project with the objective to build an editable and available without restrictions map of the world. This map is created based on data from handheld GPS receivers, aerial photographs and other available data sources, as well as sketches made in the field. Acquired information is stored in one central database, from which it can be downloaded as a map image using selected symbols or as vector data. Data from this source can be used, among others, for network analysis, of which the most widely used and the most common function is finding the optimal route between two points. For the result of this analysis to be considered reliable, the data used must be of appropriate quality. Because the OSM database is built by volunteers, there are no plans of its systematic development and there is no top-down quality control. Therefore, the paper proposes methods and tools to verify the suitability of the so far collected data for the purposes of network analysis, as well as to correct errors found. Among the quality aspects considered for geographical data, particular attention was paid to the completeness, positional accuracy, topological consistency and temporal accuracy. The first two problems require in practice comparison with the actual course of roads and streets. To solve the problem of geometric consistency, the use of relevant topological rules examining selected spatial relationships between geographic objects was suggested. When the errors detected this way are marked, they can be corrected using automated methods, and also semi-automatic or manual methods.
PL
Dostępność komunikacyjna jest parametrem określającym łatwość dotarcia do wyznaczonego miejsca, przy przemieszczaniu się własnym środkiem lokomocji lub też z wykorzystaniem środków komunikacji zbiorowej. W artykule przedstawiono algorytm pozwalający na określenie dostępności komunikacyjnej wybranej lokalizacji. W prowadzonych badaniach autorzy zwrócili szczególną uwagę na dostępność dla osób niezmotoryzowanych, korzystających z komunikacji zbiorowej. Dlatego też w analizach uwzględniono zarówno czas dotarcia do przystanku komunikacji miejskiej, jak również czas przemieszczania się pojazdem komunikacji zbiorowej. Zaproponowano bazę danych OpenStreetMap jako źródło danych dla analiz sieciowych. Prace przeprowadzono w dwóch etapach. W pierwszym kroku, po odpowiednim przygotowaniu danych, korzystając z funkcji Macierz Kosztów Początek-Cel określono czas dotarcia z poszczególnych przystanków do celu podróży. Następnie wyznaczono obszary obsługi wokół tych przystanków, określające możliwość dotarcia do nich w ruchu pieszym. Wykorzystano tutaj funkcjonalność zastosowanego narzędzia, pozwalającą na użycie w analizie wyjściowej wartości oporu, co umożliwiło uwzględnienie w uzyskanym wyniku również czasu oczekiwania na przystanku oraz czasu następującego po nim przejazdu. Przeprowadzone analizy pozwoliły na wyznaczenie obszarów z najlepszym dojazdem komunikacją zbiorową do centrum, a także zidentyfikowanie takich, które chociaż położone są relatywnie blisko centrum, to jednak charakteryzują się utrudnionym dojazdem. Otrzymane wyniki mogą być pomocne dla osób dokonujących wyboru miejsca zamieszkania, zarówno rozważające kupno nieruchomości, jak i wynajem. Analiza tego typu może również pomóc w wykryciu niedoskonałości sieci transportu zbiorowego.
EN
The accessibility is a parameter determining the ease of access to a designated place, when moving one's own means of transportation or with the use of public transport. This paper presents the algorithm that allows the accessibility determination of desired location. In this study the authors paid particular attention to accessibility for non-motorized people using public transport. Therefore, the analysis takes into account both the time to reach the bus stop, and the travel time of public transport vehicle. OpenStreetMap database is used as a data source for network analysis. The work was conducted in two stages. In the first step, after appropriate preparation of data, the Origin-Destination Cost Matrix function was used to estimate travel time from individual stops to the destination. Next, the service areas around the stops, indicating the ability to reach them in pedestrian traffic, were determined. The functionality of the tools was used, allowing the application of the initial value of resistance in the analysis, which permitted to take into account the waiting time at the bus stop and the time of the following journey. The analyses made it possible to identify areas with the best access to the city centre using public transport, and to identify those which, although located relatively close to the centre, are difficult to access. The results may be helpful for people choosing where to live, both considering buying real estate and rental. The analysis of this type may also help to identify shortcomings of public transportation networks.
8
Content available remote Wolne oprogramowanie do projektowania baz danych przestrzennych
PL
Projektowanie baz danych przeprowadza się w trzech głównych etapach nazwanych projektowaniem pojęciowym, projektowaniem logicznym oraz projektowaniem fizycznym. Kluczowym zadaniem jest zbudowanie schematu pojęciowego, czyli precyzyjne zdefiniowanie obiektów zainteresowania i zidentyfikowanie związków między nimi. Obecnie najpopularniejszym sposobem tworzenia baz danych jest użycie narzędzi komputerowo wspomaganej inżynierii oprogramowania (ang. Computer Aided Software Engineering - CASE) (Dębińska, Cichociński, 2006). Dane modeluje się z wykorzystaniem metodyki obiektowej (Zeiler, 1999), a do zapisu schematu pojęciowego bazy danych wykorzystuje się ujednolicony język modelowania (ang. Unified Modeling Language - UML), co pozwala na opisanie rzeczywistości w sposób bardziej naturalny, ułatwia śledzenie powiązań pomiędzy poszczególnymi obiektami oraz umożliwia automatyczne wygenerowanie bazy danych zgodnej z założoną specyfikacją. Bazy danych przestrzennych są rodzajem baz danych uwzględniających przestrzenny aspekt danych, co oznacza, że baza danych oprócz atrybutów opisowych obiektów zawiera również zapis ich geometrii. Dostępna obecnie oferta oprogramowania pozwalającego na zapisanie, z wykorzystaniem narzędzi CASE, projektu bazy danych przestrzennych w języku UML jest stosunkowo uboga. Niewiele jest narzędzi CASE pozwalających na tworzenie diagramów UML, które umożliwiają projektowanie baz danych przestrzennych.
EN
Designing databases is carried out in three main stages, known as the conceptual design, logical design and physical design. Currently, the most popular way to create databases is to use computeraided engineering tools (Computer Aided Software Engineering- CASE). The key task in creating the conceptual scheme is to precisely define the objects of interest and to dentify the relationships between them. For recording the conceptual scheme of a database, a Unified Modelling Language is used (UML), which facilitates, among others, tracking the links between individual objects, and allows automatic generation of a database in accordance with the required specification. Spatial databases are a kind of subtype of databases with added spatial factor, which means that, in addition to the descriptive attributes of the objects, the database concerned also contains a record of their geometry. Formal grounds for such method of spatial data recording are specified in the ISO 19100 series standards and Open Geospatial Consortium (OGC) specifications. Until recently, a complete design process of spatial databases using object methods was possible only with commercially available applications (for example: Microsoft Visio as a tool for writing models and ESRI ArcGIS system, in which the database is physically implemented). However, the free software authors begin to recognise the need of having appropriate tools, also in this area of geoinformatics. This is especially important also because of the fact that more and more laws, norms and standards include schemes written in UML. Examples include the INS? IRE specifications or detailed records of the G-5 technical instruction. Using the right tools can definitely simplify the creation of databases and applications meeting the requirements given. At present, there are two programs ensuring the essential functionality: ArgoCASEGeo and MOSKitt Geo. The paper details, using those tools and sample schemes, a series of actions leading to create the concept scheme needed to generate an empty database with structure consistent with design, ready to be filled with data. Application of the software utilised is evaluated in terms of correct and user-friendly operation.
PL
Rejestr Cen i Wartości Nieruchomości (RCiWN) jest jednym z elementów bazy danych systemu katastralnego. Stanowi on zasadnicze źródło informacji o podstawowych cechach nieruchomości Jednak aby można było z niego w pełni korzystać, należy rozwiązać kilka problemów związanych z jego zawartością oraz dostępnością.
EN
The Register of Prices and Values for Real Estates (RCiWN) is one of the components of the cadastral database. It provides the essential source of information for real estate characteristics. However, in order to be able to fully use it, it is necessary to solve several problems with its content and accessibility.
PL
Jednostką samorządową, która ma największy wpływ na rozwój przedsiębiorczości, jest gmina. Poprzez uchwalanie miejscowego planu zagospodarowania przestrzennego oraz sporządzanie programu rozwoju przedsiębiorczości prowadzi politykę lokalnego rozwoju. Niezbędnym elementem podczas tworzenia powyższych dokumentów jest informacja o rozmieszczeniu różnego typu obiektów na terenie gminy, takich jak różnorakie formy działalności, instytucje, atrakcje turystyczne
EN
Commune is the unit of local government, which has the greatest impact on enterprise development. It implements a policy of local development by adopting a local spatial development plan and the preparation of a business development program. Information about the distribution of different types of facilities within the municipality, such as various forms of activities, institutions, tourist attractions is an essential element in creating these documents.
PL
W chwili obecnej w krajach Unii Europejskiej trwają prace związane z wdrażaniem dyrektywy ustanawiającej infrastrukturę informacji przestrzennej we Wspólnocie Europejskiej - INSPIRE. Zgodnie z dyrektywą infrastruktury informacji przestrzennej w państwach członkowskich powinny być zaprojektowane tak, aby zapewnić łączenie w jednolity sposób danych przestrzennych pochodzących z różnych źródeł, a także wspólne korzystanie z nich przez wielu użytkowników i wiele aplikacji. Równocześnie od kilku lat rozwijany jest przez instytucje zrzeszone w Open Geospatial Consortium (OGC) standard Geography Markup Language (GML). Jest on gramatyką XML ujętą w schemat XML, przeznaczoną do opisu schematów aplikacyjnych dotyczących przenoszenia i przechowywania informacji geograficznej (ISO 19136, 2007). Celem niniejszej pracy jest ukazanie możliwości skorzystania z wybranych polskich zasobów geoinformacyjnych, zapisanych i udostępnianych w języku GML, przy wykorzystaniu obecnie dostępnego oprogramowania GIS.
EN
At present, works concerning implementation of the Directive establishing Spatial Information Infrastructure in the European Community (INSPIRE) are conducted in the member countries of the European Union. According to the Directive, the EU countries should establish networks providing services that make possible to search out, transform, view and download spatial data. WFS (Web Feature Service) may be used for transferring vector data. Data sent by WFS server are to be recorded in GML (Geography Markup Language) format, accepted by OGC (Open Geospatial Consortium) as the standard for geographical information coding, exchanging and storing. Although GML has been used for several years, it has not succeeded to gain proper place among Geographic Information Systems users. As GML is extensible, practically every user, who wants to record some data, may do it according to his own needs. One should only attach a schema file enabling proper data reading (.decoding.) to the original file. The schema is the term used in the databases community. It describes data structure in relational tables. The term .schema. used in connection with GML defines possible tags and text places in the structurally well formed document. In the case that GML is going to be commonly used, it is interesting to learn how the presently used software can manage to read files recorded in this standard. The authors. experiences show that dividing data into two elements (data file and its schema) and too much freedom in defining data structures are the main problems blocking wider use of GML. Data recorded in GML, in accordance with specification published as technical guidelines by the Surveyor General of Poland, obtained from the Topographical Database (TBD), were used for analysis in this work. With application of .Data Interoperability. extension, it was possible to successfully import the data into ArcGIS. This extension enables conversion between many data formats, defining input and output data formats and selecting files containing schemas. The free software that theoretically should comply with OGC specifications, practically deals poorer with GML files. Quantum GIS tried to find the file structures by analyzing its contents and failed. OpenJUMP does not use original schema files and enables to build own schemas but such work requires not only good knowledge of imported data, but the GML itself. After defining proper file called .template., this program easily imported all data. Some attempts were also made to retrieve data from the Geoportal.s WFS server. Quantum GIS and gvSIG, equipped with the appropriate .plug-ins., were used for this purpose. Unfortunately, despite finding suitable data source, the programs could not read it. However, it was possible to use the GetFeature request from within a web browser. GML file obtained in this way was not perfect, though. After closer look, it turned out that coordinates have been swapped and the available software could not automatically deal with this problem. We conclude from the research performed that in comparison with other spatial data recording standards (e.g. shapefiles), extensive possibilities of adapting data structure in GML format for specific needs may be, in some cases, rather disadvantagous than beneficial.
12
PL
Konkurs "The SDI Best Practice Award 2009" (Najlepszych Dobrych Praktyk w Budowie SDI w 2009 roku) został zorganizowany w celu wyłonienia wzorcowych, wartych naśladowania serwisów SDI w skali Europy. Konkurs został przeprowadzony w ramach realizacji projektu eSDI-NET+. Projekt ufundowany został przez Komisję Europejską w ramach programu eContentplus. Jego tytuł brzmi: "Europejska sieć na rzecz wzbogacenia i wielokrotnego wykorzystania informacji geograficznej". Jest to sieć utworzona dla promocji europejskiego dialogu oraz wymiany najlepszych praktyk stosowanych do budowy i utrzymania infrastruktury danych przestrzennych (SDI) (Krawczyk, 2007). Artykuł zawiera spostrzeżenia i wnioski grupy ekspertów zaproszonych do oceny projektów zgłoszonych do konkursu oraz organizatora jego krajowej edycji. Konkurs, będący pierwszą tego typu imprezą w Polsce, miał następujące cele: wybór najlepszych projektów z zakresu infrastruktury danych przestrzennych (SDI) spośród funkcjonujących rozwiązań, obejmujących zasięgiem swego oddziaływania obszar lokalny, regionalny i krajowy, możliwość zaprezentowania swojego, często niedocenianego lub niedostrzeganego, dorobku w zakresie budowy SDI, dyskusję na temat tworzenia własnych projektów i dalszego rozwoju SDI w Polsce.
EN
The paper presents findings and conclusions of experts invited to assess the projects submitted to the European competition for .The Best SDI Service in 2009.. The conditions for participation in the competition were discussed and evaluating criteria were presented. All reported services were presented in the form of a table. On the basis of accepted criteria 7 best services in four categories were selected. Reported services can be grouped into three categories: public administration, environmental and social. Then individual service groups were discussed in detail. The international final of the competition organized in Turin was also briefly discussed, where 12 SDI from 137 were selected. Conclusions concerning the state of geoportals in Poland as in January 2009 were presented and proposals concerning the organization of next workshops were put forward.
EN
Nowadays, works concerning the implementation of directive establishing an Infrastructure for Spatial Information in the European Community (INSPIRE) are conducted in the countries belonging to European Union. The WFS (Web Feature Service) may be used for transferring vector data. Data sent by WFS server are to be recorded in GML (Geography Markup Language) format, accepted by OGC (Open Geospatial Consortium) as the standard for geographical information coding, exchanging and storing. Data recorded in GML, in accordance with specification published as technical guidelines by Surveyor General of Poland obtained from Topographical Database (TBD), have been used for analysis in this work. With application of “Data Interoperability” extension it was possible to successfully import this data into ArcGIS. This extension enables conversion between many data formats, defining input and output data formats and choosing files containing schemas. The free software that theoretically should comply with OGC specifications, practically does not deal properly with GML files. Quantum GIS tried to find the file structures by analyzing its contents and failed. OpenJUMP does not use original schema files and enables to build own schemas but such work requires not only the good knowledge of imported data, but the GML itself. After defining proper file called “template” this program easily imported all data. This various experiences with Topographical Database file import have motivated authors to perform similar attempts with other files. The following GML files accessible on the Internet have been used – Ordnance Survey MasterMap (Great Britain), AAA-NAS (Germany) i TOP10NL (Netherlands). Despite the fact that these standards of topographical maps are quite popular, the results obtained with GML file import were very similar. The researches that have been performed show that we are still neither legally nor technically ready to implement INSPIRE directive in Poland.
PL
W chwili obecnej w krajach Unii Europejskiej trwają prace związane z wdrażaniem dyrektywy ustanawiającej infrastrukturę informacji przestrzennej we Wspólnocie Europejskiej – INSPIRE. Do udostępniania danych w postaci wektorowej mają być stosowane serwery WFS (Web Feature Service). Dane wysyłane przez serwer WFS mają być zapisywane w języku GML (Geography Markup Language), przyjętym w 2001 roku przez konsorcjum OGC (Open Geospatial Consortium), jako standard kodowania, rozpowszechniania i gromadzenia informacji geograficznej. W pracy do przeprowadzonych analiz wykorzystano dane z bazy danych topograficznych (TBD) zapisane w języku GML zgodnie ze specyfikacją określoną w wytycznych technicznych, wydanych przez Głównego Geodetę Kraju. Dzięki rozszerzeniu Data Interoperability, które umożliwia konwersję między wieloma formatami plików, jak również pozwala na zdefiniowanie własnych formatów wejściowych i wyjściowych, a także wskazywanie odpowiednich plików zawierających schematy, udało się te dane wczytać do oprogramowania ArcGIS. Wolne oprogramowanie, teoretycznie deklarujące zgodność ze specyfikacjami OGC, wypadło o wiele gorzej. Quantum GIS próbował automatycznie odkryć strukturę pliku przez przeanalizowanie jego zawartości, ale zadanie to zakończyło się porażką. OpenJUMP również nie korzysta z oryginalnych plików schematów, pozwalając za to na tworzenie swoich własnych, ale wymaga to dobrej znajomości zarówno wczytywanych danych jak i samego języka GML. Po zdefiniowaniu poprawnego pliku zwanego szablonem program ten bez problemu wczytał wszystkie dane. Różnorodność rezultatów uzyskanych w wyniku importu plików TBD zmotywowała autorów do podjęcia próby wczytania innych plików. Wykorzystano dostępne w Internecie przykłady plików GML: Ordnance Survey MasterMap (Wielka Brytania), AAA-NAS (Niemcy) i TOP10NL (Holandia). Mimo większej popularności tych standardów map topograficznych uzyskane rezultaty były zbliżone. Przeprowadzone badania pokazały, że wciąż nie do końca jesteśmy przygotowani, nie tylko pod względem prawnym, ale również technicznym do wprowadzania w życie wytycznych dyrektywy INSPIRE.
14
Content available remote Próba zastosowania metod geostatystycznych do taksacji nieruchomości
PL
Punktem wyjścia dla proponowanej metody wyceny były obserwacje dokonane w trakcie prac nad przeglądem wykorzystania metod kartograficznych do analizy rynku nieruchomości. Zaprezentowane we wcześniejszej publikacji autora (Cichociński, 2007) przykłady pokazały możliwość zastosowania uproszczonej metodyki, jednocześnie obnażając jednak jej wady. Przy analizie rozkładu przestrzennego wartości nieruchomości na podstawie informacji o cenach jednostkowych popełniany jest bowiem błąd polegający na tym, że zmienność tych cen nie zależy wyłącznie od różnicy w położeniu (lokalizacji) nieruchomości, lecz również od innych cech o charakterze nieprzestrzennym, takich jak: dla lokali - powierzchnia, standard wykończenia, kondygnacja, liczba pomieszczeń; dla działek - kształt, pole powierzchni. Konieczne byłoby zatem wydzielenie składowej ceny, zależnej od tych atrybutów nieprzestrzennych. Do rozwiązania tego zadania zaproponowano w pierwszej kolejności zastosowanie statystycznej metody analizy wariancji (ANOVA). Służy ona do badania wpływu czynnika klasyfikującego (mającego kilka poziomów) na wartość nieruchomości. Próby zwiększenia dokładności predykcji wartości nieruchomości z zastosowaniem metod analizy wariancji i geostatystyki zakończyły się częściowym powodzeniem. W przypadku danych pochodzących z krakowskiego rynku nieruchomości istotne różnice wariancji cen jednostkowych nieruchomości pomiędzy grupami wyznaczonymi przez różne wartości ich atrybutów uniemożliwiły stosowanie metod analizy wariancji, gdyż ewentualne uzyskane wyniki byłyby pozbawione wartości. Oznacza to, że poszczególne grupy nieruchomości nie są jednakowo zróżnicowane. Można podejrzewać, że rynek nieruchomości w Polsce jest wciąż jeszcze słabo rozwinięty, niestabilny i mało przejrzysty. Cenne byłoby powtórzenie takiej analizy w momencie, gdy rynek będzie już wystarczająco rozwinięty celem zweryfikowanie jej użyteczności. Wykorzystanie danych z rozwiniętego rynku Stanów Zjednoczonych Ameryki Północnej pozwoliło zaobserwować wzrost dokładności prognozy wynikający z redukcji wpływu nieprzestrzennych cech nieruchomości na ich ceny jednostkowe. Niestety jednak zaproponowana metoda nie jest wystarczająco dokładna, żeby można ją było bezpośrednio wykorzysta ć do taksacji nieruchomości.
EN
The starting point for the proposed valuation method were observations made during works on the review of application of cartographic methods to analyze the real estate market. Examples presented in the author's previous publications have shown the possibility of using the simplified methodology, while revealing its disadvantages. In examining the spatial distribution of real estate values on the basis of unit prices, an error is made due to the fact that the variability of these prices depends not only on the difference in the position (location) of the real estates, but also on other non-spatial characteristics, such as area, the standard of equipment, the floor, number of rooms - for dwellings and the shape, surface area - for parcels. So, it would be necessary to separate the price component, depending on these non-spatial attributes. To solve this task, the application of analysis of variance (ANOVA) statistical method was proposed first. It allows testing the influence of the classifying factor (having several levels) on the value of the real estate. This allows to test whether all levels of the attributes have the same impact on the price. In case of their appearance, significant differences will be estimated and values will be subtracted from the real estate value. Variability of the spatial component of the real estate value calculated this way depends only on its location. It is possible to interpolate it to calculate its value to other real estates. The kriging method is applied here. Then, taking into account the values of non-spatial attributes of these other real estates and the impact of their levels on the price of real estate, it is possible to calculate the total value of all real estates on a given area. Application of this method can significantly simplify the process of acquiring the real estate attributes, as it may be limited to the non-spatial characteristics. The set of dwellings from the Krakow area was analyzed first. Each sold dwelling was described by 7 attributes. First, it was examined by means of correlation matrix whether a relationship exists between the values of individual attributes and the unit price. From the set of non-spatial characteristics only standard of equipment showed a correlation at the medium level, and the others were at a low or even negligible level. Unfortunately, it appeared that there were significant differences of variance between groups of dwellings distinguished by the value of this attribute, and thus it was impossible to apply analysis of variance methods, as any results obtained would be worthless. This means that different groups of dwellings are not equally diversified. One of the possible reasons for this result of analysis may be the statement that the property market in Poland is still underdeveloped, unstable and not transparent. Therefore, the author decided to test the proposed procedure on data from another developed market. The market of the United States of America can be considered as such. Available on the Internet list of sale transactions of houses, described by 17 attributes, was used. Using correlation matrix it was examined whether there were relationships between the individual attribute values and the unit price. For consecutive attributes strongly correlated to the price, the existence of statistically significant differences between the average unit house prices in categories set by the values of this characteristic was examined. If the difference occurred, the differences of average unit prices for individual groups were calculated and were used to offset the impact of the variability of any given characteristic on the value of the house. It was assumed that the unit price of the building obtained this way, did not essentially depend on non-spatial real estate characteristics, relying solely on its location and it could be interpolated using kriging method to determine values of other buildings. Ordinary Kriging function was used to accomplish this task. The result of this function is the surface (in the raster data model), having "height" values interpolated at all points of a regular grid. The first surface was generated with default parameters automatically selected by the program. It turned out that the fit of this model was not good. Attempts undertaken to select better values of these parameters gave as a result the model with only slightly better accuracy parameters. Deviations at the points with known values, obtained by cross-validation method were up to 260% of the unit prices of individual buildings. Comparison of accuracy parameters with the model generated basing on the original unit prices showed that the proposed method gave better results than those obtained on the basis of the raw data. Unfortunately, however, it is not sufficiently accurate to be used for real estate valuation.
15
Content available Modelowanie baz danych o nieruchomościach
PL
Przy wycenie nieruchomości konieczna jest znajomość atrybutów oraz cen i wartości nieruchomości z danej miejscowości, dzielnicy lub otoczenia. Informacje takie tworzą bazy danych o nieruchomościach. W Polsce taką oficjalną bazą jest rejestr cen i wartości nieruchomości (RCiWN), będący częścią ewidencji gruntów i budynków, prowadzonej przez starostów na szczeblu powiatu. Inne bazy nieruchomości są prowadzone przez poszczególnych rzeczoznawców lub firmy zajmujące się wyceną nieruchomości lub wykorzystujące takie dane. W niniejszej pracy opisano podjęte próby modelowania baz danych o nieruchomościach z zastosowaniem narzędzi Komputerowo Wspomaganej Inżynierii Oprogramowania (Computer Aided Software Engineering – CASE). Działania były prowadzone dwutorowo. Jedną ścieżkę badań stanowiło modelowanie rejestru cen i wartości nieruchomości, jako bazy o zawartości i strukturze narzuconej przez uregulowania prawne, natomiast druga ścieżka to projektowanie i budowa bazy danych o nieruchomościach przeznaczonej bezpośrednio dla rzeczoznawców. W przeprowadzonych pracach oparto się na opisanych w literaturze schematach modelowania. Do tego celu użyto zunifikowany język modelowania (UML) oraz oprogramowanie Visio i ArcGIS.
EN
When performing a real estate valuation, it is necessary to know the attributes, prices and values of real estates from the given locality, district, or neighbourhood. All that information makes up databases of real estates. The register of prices and values for real estates is such an official database in Poland, and it is part of land and building cadastre managed on the county level. Other databases are maintained by individual appraisers or companies dealing with real estate valuation or using such data. The paper presents attempts that were undertaken at modelling databases of real estates, using Computer Aided Software Engineering (CASE) tools. Those activities were conducted in two ways. One path of research included the modelling of the register of prices and values for real estates, as a database with contents and structure imposed by legal regulations, while the second path was the designing and building of a database intended directly for real-estate appraisers. The performed works were based on modelling schemes described in subject literature. Unified Modelling Language (UML), Visio and ArcGIS software were used for that purpose.
EN
An essential attribute of real estates, having influence on their cadastral value, is their location, and thereby the neighbourhood, both of other real estates and other objects. In order to efficiently carry out the valuation,, spatial information on these objects should be collected in an appropriate database. This information could come from GIS databases, encompassing land and buildings cadastre, spatial registration of utility infrastructure, topographical objects with digital terrain model, as well as various environmental elements. It can be assumed that the necessity of integration of these data sets will also appear during the creation of national spatial data infrastructures. This will include both aggregation of neighbouring data sets of the same object types (.horizontal.) and adjustment of the content of different data sets describing the same part of the space (.vertical.). Previous experiences of users working in Poland with different kinds of topographical databases showed, however, the possibility of considerable inconsistencies among them of both geometrical and attribute character , due to different temporal periods and methods of data acquisition, and also due to different data sources. It is likely that the same problem will happen with large scale data. This can be resolved by the use of topology .description of spatial relationships between geographical objects. Originally, this term referred to such simple rules describing the internal correctness of data sets as: .lines shall not intersect and must not overlap., .line shall only touch other lines at endpoints ., .polygons shall not overlap and shall not have gaps., necessary to carry out any spatial analyses. However, in last few years the term of topology was extended and now includes also description of relationships between objects coming from different object classes. The list of available rules was considerably extended. Among other things it now contains the following statements: .boundaries of polygon features in feature class A shall be covered by boundaries of polygon features in feature class B., .objects of feature class A shall be contained within polygons of feature class B., .objects of feature class A shall be covered with objects of feature class B.. The paper presents the use of these topological rules available in advanced GIS software to describe the required mutual spatial relationships between objects coming from different, mentioned above databases and to analyse occurring violations of these rules. Besides methods of detection of these inaccuracies, the methodology of their removal was also proposed, using analytical and data processing GIS tools. The technology called conflation can also be used here. It refers to joining of at least two different data sets to create a new data set. It is necessary to make suitable modifications of objects from both data sets. To carry out this operation on a wider scale it is required to use tools automating this process to the greatest degree possible in order to reduce the participation of the operator to the interventions in few non-typical cases. It is expected that the results of conducted works will be applicable not only to the valuation of real estates, but in every case when the use of many potentially inconsistent sources of geographical data is required
EN
A reform of real estate taxes which is surely unavoidable in the future and introduction of a cadastral tax will cause the necessity of a mass appraisal of real estates, in other words - value assessment of all real estates. One of the basic methods of determining market value of real estate is valuation accomplished by means of a comparative approach. This approach assumes that market value of real estate is assessed through comparison to other similar real estates, for which transaction prices and characteristics distinguishing these real estates and having the essential influence on their value are known. One of the essential difficulties of comparative approach is the necessity to have information about real estates similar to the one to be appraised, which were subjects of trade on a given property market. Generally used method of object attributes determination on the basis of maps and reconnaissance requires participation of a man (an operator). In case of mass appraisal it would cause enormous expenditure of labour, resulting in huge costs. But to solve these problems Geographic Information Systems can be used. One of their classical applications are spatial analyses allowing determination of spatial characteristics of objects and relationships between them. In the paper communication acces sibility attribute was analysed in detail. The access to real estate was considered in two categories: movement with own transportation means and using public transport facilities. The first case is more important in rural areas, but also the second case is significant because of weak public communication network. The term movement with own transportation means refers to journey along the road network from the central point, around which concentrates the life of inhabitants, directly to real estate. Such analysis can be conducted independently for each real estate, by calculation of best route to the centre, or determination of zones of specified travel times around the centre and assigning particular real estates to them. Regarding mass transport facilities, one can ride only to the nearest stop, and then has to move on foot. Such partition into two stages significantly complicates the modeling. Examination of conditions of journey to real estate was conducted based on two data models: vector and raster. In the first case functions for geographical networks analyses were used. Two tools were applied: Best Route between two points and Service Area. In case of rasters the Cost Distance function was used, which calculates the least-accumulative-cost distance to the nearest centre for each pixel. Vector analyses were limited to movement along elements of road network, unfortunately also for pedestrian traffic. As for rasters, every variant of journey forced preparation of suitable data. When travel only along roads was considered, pixels outside roads were assigned .no data. value in reclassification process. In case of raster data, there is no need to have information concerning road network, recorded as linear objects. Information coming from land register on parcels under roads or land use type road will be sufficient. Raster data makes it also possible to conduct analyses regarding movement outside the road network, which can be applied in case of pedestrian traffic examination. After suitable preparation of a movement cost raster, it also appeared possible to integrate in one analysis getting to the stop on foot and further travelling using public transportation means. An advantage of raster data is also the possibility of taking into account the centre of elongated shape, for example situated along the main street, which is often the case in countryside. However, resulting raster data sets were finally converted into vector form, containing borders of zones, for easier assignment of real estates to them. Research described in the paper confirmed the usefulness of tools for vector network analyses and raster cost analyses for determination of real estates communication accessibility. The only problem can be, as in many other cases, the availability of suitable data.
PL
Podstawą efektywnego korzystania z systemów informacji geograficznej (SIG) jest poprawnie skonstruowana baza danych, pozwalająca na szybkie i sprawne przeszukiwanie danych. Ze względu na specyfikę SIG, konieczne jest, by taka baza oprócz danych opisowych obiektów przechowywała również informacje dotyczące ich położenia i kształtu. Wówczas taka baza danych zawierająca informacje geograficzne, co ją w sposób szczególny wyróżnia spośród innych baz danych, może być nazwana geobazą. Wprowadzenie modelu geobazy pozwoliło na zastosowanie metod projektowania relacyjnych baz danych, w tym narzędzi CASE, również do informacji geograficznej. Oprócz rozważań teoretycznych, w artykule zaprezentowano przykład modelu danych na potrzeby wyceny nieruchomości, obejmujący definicje niezbędnych klas obiektów i relacji pomiędzy nimi.
EN
The base for the effective use of the Geographic Information Systems (GIS) is a correctly constructed database allowing quick and swift browsing of the data. Because of GIS specifies, it is necessary that such a database, apart from descriptive data of the objects, also stores information referring to their location and shape. Then such a database, containing geographical information, that distinguishes it from among another databases, can be named a geodatabase. The introduction of the geodatabase model allowed the application of the methods of designing relational databases, including CASE tools, also for geographic information. Apart from theoretical considerations, the paper presents an example of the data model for the evaluation of real estate, containing the definitions of necessary object classes and their relationships
PL
Jednym z podstawowych sposobów określania wartości rynkowej nieruchomości jest wycena realizowana metodą porównawczą. Podejście to zakłada, że wartość rynkowa nieruchomości wyznaczana jest poprzez ich porównanie z innymi podobnymi nieruchomościami, dla których znane są ceny transakcyjne, a także cechy różniące te nieruchomości i mające istotny wpływ na ich wartość. Jedną z zasadniczych trudności jest konieczność posiadania informacji o nieruchomościach podobnych do wycenianej, które były przedmiotem obrotu na danym rynku nieruchomości. Ocena wymaganych i dostępnych danych oraz znajomość funkcjonalności oprogramowania systemów informacji geograficznej (SIG) pozwoliła na przedstawienie propozycji zawartości bazy informacji o nieruchomościach oraz zakresu danych, które będzie można przekazywać bezpośrednio z innych baz SIG lub też wygenerować za pomocą narzędzi analitycznych.
EN
One of the basic ways of the definition of the market value of real estates is its evaluation carried out in a comparative approach. This approach assumes that a market value of real estates is determined by comparison to other similar real estates of known transaction prices as well as prices differentiating these real estates and having a strong influence on their value. One of main difficulties is the necessity of having the information on real estates similar to the one that is to be evaluated. Such real estates should be a subject of pursuing in a given market of real estates. The evaluation of required and available data and the knowledge of the functionality of GIS software enabled us to present the proposal of the content of a database on real estates and the range of data that can be transferred directly from other GIS bases or generated by analytical tools.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.