Podstawą rozważań w tej części artykułu są wprowadzone poprzednio pojęcia metody i formy prezentacji kartograficznej. Autorka omawia kryteria wydzielania poszczególnych metod prezentacji i podejmuje próbę ich klasyfikacji. Wykorzystując zaproponowany w pierwszej części artykułu schemat przejścia od danych do prezentacji autorka wyprowadza z niego poszczególne formy prezentacji kartograficznej.
EN
A shift from data through transformation leads to a specific graphic solution (compare Part I). In the article such solutions are referred to as cartographic presentation forms. In cartography, a logical and methodologically correct transformation from data to graphics results in presentation forms, which differ according to the type of data, transformation and visualization, i.e. the applied presentation method. The article discusses criteria and various classifications of cartographic presentation methods which appear in cartographic literature. Potential capabilities of cartographic presentation are the subject of cartographer's interest. In literature there are numerous considerations aiming to establish which method of presentation is appropriate for particular data, or what data can be presented using a particular presentation method. They attempt to link measurement levels, graphic symbols, visual variables and other attributes of presentation. Different combinations of those attributes result in various, more or less reasonable graphic solutions. After discussing more significant of these attempts, the author presents her own views on potentiality of cartographic presentation (fig. 5, 6, 7). From the scheme outlined in the first part of the article she derives particular graphic solutions, evaluates their correctness, estimates popularity and attaches names of specific presentation methods to them. She also attempts to label new solutions, which seem to be methodologically correct, but which have not been named yet. These considerations supplement Polish classification of cartographic presentation methods.
W artykule przedstawiono wyniki prac realizowanych w Instytucie Technicznym Wojsk Lotniczych w zakresie możliwości komputerowej konwersji danych nawigacyjnych w układach odniesienia stosowanych w zintegrowanych systemach awionicznych. Na przykładzie systemu awionicznego śmigłowca W-3PL Głuszec przedstawiono możliwości przetwarzania danych pilotażowo-nawigacyjnych i celowniczych podczas realizacji misji obserwacyjnych (przy wykorzystaniu głowicy TOPLITE) oraz wykorzystania systemu uzbrojenia z nahełmowym systemem celowniczym NSC-1 Orion. Dla ilustracji realizowanych w nim operacji przetwarzania informacji pilotażowo-nawigacyjnej i obserwacyjno-celowniczej, omówiono metody konwersji danych nawigacyjnych w trybie CCIP oraz trybie CCRP.
EN
This paper presents selected results of the analytical work carried out in the Air Force Institute of Technology within the capabilities of a computer navigation data conversion in reference systems used in integrated avionics systems. On example of built avionics system for the helicopter W-3PL Capercaillie possibilities of computer processing of pilot-navigation and aiming data in combat applications, during execution of the observation mission (using the observation and surveillance system TOPLITE) and the use of the weapon system with helmet-mounted cueing system NSC-1 Orion were presented. In order to illustrate pilot-navigation and observation-aiming information processing operations carried out in it, used methods for converting data in navigation modes CCIP and CCRP were discussed.
The 3D geoinformation is becoming important for cities and their policies. The cities are therefore exploring the possibilities of 3D virtual city models for more efficient decision making. To maximize the economic benefit of such data, the cities can provide their 3D geospatial data for further usage, and so, new applications can be created. The paper defines a way how the freely available 3D geospatial data of Prague can be transformed from the proprietary data format into the open data model. The 3D geospatial data about the buildings, bridges and digital terrain model were transformed from the 3D shapefile into the CityGML. This is an application independent information model and exchange format. This will allow for the wider use of the 3D city model by different groups of users. The generated CityGML files were further imported into the spatial database with appropriate database CityGML-based scheme. It enables more efficient management and querying of CityGML data. To enable the wider audience to explore the 3D city model, the visualization in the web environment was also explored. The paper also presents the way how the attributes from the external data sources can be connected to the 3D objects in the web environment.
5
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
W artykule przedstawiono wstępną koncepcję schematu sprawdzania kompletności danych po procesie ich transformacji, opracowaną na potrzeby wymiany informacji między różnymi systemami informatycznymi przetwarzającymi informacje w przedsiębiorstwie produkcyjnym. Scharakteryzowano mechanizm konwersji informacji wykorzystywany podczas ich przepływu pomiędzy systemami informatycznymi przedsiębiorstwa. Opisano problematykę utraty części danych w trakcie ich przekształcania. Zaprezentowano wyniki działania programu implementującego opracowany algorytm.
EN
The paper presents an initial version of a data completeness verification schema used in the process of its transformation elaborated for the information exchange between different systems in a manufacturing company. Data conversion mechanism used in information flow between enterprise systems was characterized. Problems of data loss during the conversion process were described. The paper also presents the work results of the application which implements the algorithm.
6
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The paper is concerned with the recognition of faces represented by the visible and infra-red images. Different methods of image feature generation at application of different classifiers will be studied and compared for both types of face imagery. The investigated approaches include the linear and nonlinear methods of transformation: principal component analysis (PCA), Kernel PCA, Sammon transformation and stochastic neighbor embedding with t-distribution (tSNE). The representation of the image in the form of limited number of main components of transformation is applied to the input of support vector machine classifier and random forest. The numerical results of experiments will be presented and discussed.
PL
Praca przedstawia porównanie metod rozpoznawania twarzy na podstawie dwu rodzajów obrazów: widzialnego oraz w podczerwieni. Zbadano kilka metod przetwarzania obrazu w cechy diagnostyczne: metodę opartą na PCA, nieliniową metodę KPCA, odwzorowanie Sammona oraz transformację stochastyczną tSNE. Każda z tych metod generuje inny zestaw cech diagnostycznych użytych jako atrybuty wejściowe dla klasyfikatora. W pracy zastosowano zespół klasyfikatorów stosujących sieć SVM oraz las losowy Breimana . Przedstawiono wyniki rozpoznania każdego z tych klasyfikatorów współpracujących z odpowiednim zestawem atrybutów wejściowych oraz wynik fuzji poszczególnych rezultatów. Jako jednostkę integrującą zespół zastosowano las drzew losowych. Wyniki pokazują, że zastosowanie wielu metod przetwarzania obrazu w cechy diagnostyczne i równoległego obrazowania twarzy w postaci widzialnej i w podczerwieni pozwala zwiększyć efektywność rozpoznania o około 30%.
7
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
W rozdziale drugim zostały opisane zagadnienia harmonizacji i transformacji polskich danych przestrzennych do modeli INSPIRE, zarówno od strony podstaw teoretycznych, jak i konkretnych przykładów zapisania danych gromadzonych w polskich zasobach zgodnie z wymaganiami specyfikacji implementacyjnych dyrektywy INSPIRE. Podstawy do praktycznego rozwiązywania problemów z zakresu harmonizacji modeli danych przestrzennych i transformacji danych pomiędzy różnymi modelami zostały opisane w dokumentach OGC i Komitetu ISO/TC211. Podstawą metodologiczna, zalecaną przez obie organizacje, są modele pojęciowe danych zapisane w języku UML, na postawie których można opracowywać struktury baz danych i schematy XML specyfikujące języki aplikacyjne zapisu danych w plikach dla przechowywania danych w repozytoriach lub przesyłania ich między różnymi systemami. Podstawowym językiem z rodziny XML dla danych przestrzennych jest GML, a praktyczne jego wykorzystania w różnych dziedzinach są realizowane przy pomocy jego aplikacji. Do tej kategorii zalicza się także specyfikacje danych dla poszczególnych tematów INSPIRE. W kolejnych częściach rozdziału omówiono różne aspekty przedstawianej problematyki . od podstawowych pojęć z zakresu transformacji danych przestrzennych i języków znacznikowych, poprzez przedstawienie głównych różnic pomiędzy formatem zapisu danych a językiem służącym do tego zapisu i problemów implementacji języka GML, aż do przedstawienia podstaw transformacji zbiorów XML przy pomocy technologii XSLT. Znaczna część rozdziału poświęcona jest aspektom praktycznym, w tym schematom aplikacyjnym danych INSPIRE, oprogramowaniu dedykowanemu transformacji, analizie próbek polskich zbiorów danych przestrzennych poddanych testom i praktycznym metodom transformacji z propozycją ogólnego algorytmu opisującego poszczególne jej fazy. Rozdział kończy się podsumowaniem, które jest próbą wyciągnięcia bardziej ogólnych wniosków i uwag wynikających z opisanych w nim prac badawczych. W przedstawionych pracach testowane były tylko małe próbki danych przestrzennych, głównie z zakresu pierwszej grupy tematycznej INSPIRE, jednak uzyskane wyniki mogą być ekstrapolowane na znacznie szerszą skalę. Przedstawione wyniki prac studialnych i testowych nad rozwojem technologii takiej transformacji, a także wnioski ogólne i praktyczne, zdaniem Autora będą pomocne w przyszłych pracach prowadzonych w skali pełnych zasobów dziedzinowych i w skali całego kraju.
EN
In Chapter 2 problems connected with harmonization and transformation of Polish spatial data to INSPIRE models are described both from theoretical point of view and as concrete examples of recorded data stored in Polish resources in accordance with the requirements of implementation specification of the INSPIRE Directive. The basis for practical solution of the problems related to harmonization of spatial data models and data transformation between different models are described in OGC and Committee ISO/TC211 documents. Conceptual data models written in UML language constitute the metodological basis recommended by both organizations and on this basis structures of data bases may be developed as well as XML schemas specifying application languages for description of data in files for data storage in repositories or for transfering them between differrent systems. The basic language from XML family for spatial data is GML and its practical use in various areas is realized by means of its application. Data specifications for individual INSPIRE themes are also included to this category. Further in the Chapter various aspects of the problems presented are discussed . from basic notions in the area of spatial data transformation and marker languages, through basic differences between the format of data records and the language serving this recording and the problems connected with implementation of GML language through presentation of the basis for transformation of XML sets by means of XSLT technology. A large part of the Chapter is devoted to practical aspects, including application schemas of INSPIRE data, software dedicated to transformation, analysis of samples of Polish spatial data sets subjected to tests and practical methods of transformation with proposed general algorithm describing its individual stages. The Chapter closes with a summery striving to draw more general conclusions and remarks resulting from the research work described. During the research work not only small samples of spatial data were tested, mostly from the first INSPIRE thematic group. However, the results obtained may be extrapolated on much larger scale. The presented results of study and test works on development of technology of such a transformation as well as general and practical conclusions will be helpful . in the authors opinion . in future works conducted on the scale of full domain resources and on the scale of the whole country.
Naturalną przestrzenią matematycznego opracowania sieci wektorowej GPS jest globalny układ geocentryczny WGS84. W przypadku potrzeby integracji pomiarów klasycznych i satelitarnych bardziej odpowiednim rozwiązaniem byłoby sprowadzenie sieci wektorowej GPS na płaszczyznę odwzorowania lokalnego, a następnie wyrównanie jej jako sieci poziomej. Pewien problem może stanowić przygotowanie odpowiednich pseudo-obserwacji GPS na płaszczyźnie. W niniejszej pracy przedstawiono kompletny algorytm obliczeniowy do transformacji oryginalnych wektorów GPS do postaci pseudo-wektorów na płaszczyznę układu „2000”. Załączono również przykład numeryczny bazujący na wynikach kontrolnego pomiaru okresowego na obiekcie osuwiskowym. Otrzymane wyniki (wyrównane współrzędne płaskie w układzie „2000”) zestawiono z wynikami wyrównania oryginalnej sieci GPS oraz z wynikami klasycznych pomiarów naziemnych.
EN
The natural space of mathematical development of a GPS vector network is the global geocentric system WGS84. If necessary to integrate the conventional and satellite measurements, a more appropriate solution is to bring the GPS vector network onto the plane of the local projection and to adjust it as a horizontal network. One problem may be a suitable preparation of GPS pseudo-observations on the plane. In this work there is presented the complete calculation algorithm to transform the original GPS vectors to form a pseudo-vectors in the plane of “2000” system. There is also enclosed a numerical example based on the results of a periodic control measurement of the landslide area. The results obtained (the horizontal coordinates adjusted in the "2000" system) have been next compared to both the results of original GPS network adjustment and the results of the classical terrestrial measurement.
W artykule przedstawiono koncepcję schematu sprawdzania kompletności danych po procesie ich transformacji opracowaną na potrzeby wymiany informacji pomiędzy różnymi systemami informatycznymi przetwarzającymi informacje w przedsiębiorstwie produkcyjnym. Scharakteryzowano pokrótce mechanizm konwersji informacji wykorzystywany podczas ich przepływu pomiędzy systemami informatycznymi przedsiębiorstwa. Opisano problematykę utraty części danych w trakcie ich przekształcania. Zaprezentowano opracowany algorytm a także wyniki działania programu go implementującego.
EN
The paper presents newest version of data completeness verification algorithm used in the process of its transformation elaborated for the information exchange between different systems in manufacturing company. Data conversion mechanism used in information flow between enterprise systems was characterized. Problems of data loss during the conversion process were described. Results of working of the program which implements the algorithm were presented.
10
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The paper presents application of the convolutional neural network (CNN) in face recognition. The CNN is regarded nowadays as the most efficient tool in image analysis. This technique was applied to recognition of two databases of faces: the own base containing 68 classes of very different variants of face composition (grey images) and 244 classes of color face images represented as RGB images (MUCT data base). This paper will compare different solutions of classifiers applied in CNN, autoencoder and the traditional approach relying on classical feature generation methods and application of support vector machine classifier. The numerical results of experiments performed on the face image database will be presented and discussed.
PL
Praca przedstawia zastosowanie sieci CNN w rozpoznaniu obrazów twarzy. Twarze poddane eksperymentom pochodzą z dwu baz danych. Jedna z nich jest własną bazą zawierającą 68 klas reprezentowanych w postaci obrazów w skali szarości i drugą (MUCT) zawierającą 244 klasy reprezentujące obrazy kolorowe RGB. Zbadano i porównano różne metody rozpoznania obrazów. Jedna z nich polega na zastosowaniu konwolucyjnej sieci neuronowej CNN z dwoma różnymi klasyfikatorami końcowymi (softmax i SVM). Inne głębokie podejście stosuje autoenkoder do generacji cech i SVM jako klasyfikator. Wyniki porównano z klasycznym podejściem wykorzystującym transformację PCA w połączeniu z klasyfikatorem SVM.
11
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Nuclear power plant process systems have developed great lyover the years. As a large amount of data is generated from Distributed Control Systems (DCS) with fast computational speed and large storage facilities, smart systems have taken over analysis of the process. These systems are built using data mining concepts to understand the various stable operating regimes of the processes, identify key performance factors, makes estimates and suggest operators to optimize the process. Association rule mining is a frequently used data-mining conceptin e-commerce for suggesting closely related and frequently bought products to customers. It also has a very wide application in industries such as bioinformatics, nuclear sciences, trading and marketing. This paper deals with application of these techniques for identification and estimation of key performance variables of a lubrication system designed for a 2.7 MW centrifugal pump used for reactor cooling in a typical 500MWe nuclear power plant. This paper dwells in detail on predictive model building using three models based on association rules for steady state estimation of key performance indicators (KPIs) of the process. The paper also dwells on evaluation of prediction models with various metrics and selection of best model.
The paper presents the new navigational service under commercial agreement between the United Kingdom Hydrographic Office (UKHO) and the Transas, worldleading Electronic Chart Display and Information System (ECDIS) developer and supplier, which guarantee that every Transas ECDIS will be pre-loaded with Admiralty Vector Chart Service (AVCS) data tailored to the needs of Transas’ customers and optimised for use on Transas' ECDIS. The new Transas Admiralty Data Service (TADS) compiles the ENC data set into the internal format of a Transas ECDIS system, meaning that users will experience significant time savings, whilst also guaranteeing an easy, error free installation and updating of official System ENC (SENC) data on their systems, where the producing nation allows.
PL
W referacie przedstawiono nowy serwis nawigacyjny, będący przedmiotem porozumienia między Admiralicją Brytyjską (UKHO) a firmą Transas, światowym liderem na rynku systemów ECDIS, który gwarantuje, że każdy system ECDIS firmy Transas będzie mógł otrzymywać dane w serwisie AVCS (Admiralty Vector Chart Service (AVCS), dostosowane do potrzeb użytkowników tych systemów. Nowy serwis, nazwany TADS (Transas Admiralty Data Service) umożliwia automatyczną transformację danych map elektronicznych ENC (Electronic Navigational Chart) w wewnętrzny format systemu ECDIS firmy Transas, co oznacza, że użytkownicy systemu zaoszczędzą trochę czasu. Poza tym gwarantuje on łatwą, bezbłędną instalację oraz aktualizację oficjalnych baz danych SENC (System Electronic Navigational Chart ) w tych systemach, o ile lokalne przepisy na to pozwalają.
Przedstawiona tutaj pozycja wydawnicza jest obszernym wprowadzeniem do najważniejszych podstawowych zasad, algorytmów i danych wraz zestrukturami, do których te zasady i algorytmy się odnoszą. Przedstawione zaganienia są wstępem do rozważań w dziedzinie informatyki. Jednakże, to algorytmy są podstawą analityki danych i punktem skupienia tego podręcznika. Pozyskiwanie wiedzy z danych wymaga wykorzystania metod i rezultatów z co najmniej trzech dziedzin: matematyki, statystyki i informatyki. Książka zawiera jasne i intuicyjne objaśnienia matematyczne i statystyczne poszczególnych zagadnień, przez co algorytmy są naturalne i przejrzyste. Praktyka analizy danych wymaga jednak więcej niż tylko dobrych podstaw naukowych, ścisłości matematycznej i spojrzenia od strony metodologii statystycznej. Zagadnienia generujące dane są ogromnie zmienne, a dopasowanie metod pozyskiwania wiedzy może być przeprowadzone tylko w najbardziej podstawowych algorytmach. Niezbędna jest płynność programowania i doświadczenie z rzeczywistymi problemami. Czytelnik jest prowadzony przez zagadnienia algorytmiczne z wykorzystaniem Pythona i R na bazie rzeczywistych problemów i analiz danych generowanych przez te zagadnienia. Znaczną część materiału zawartego w książce mogą przyswoić również osoby bez znajomości zaawansowanej metodologii. To powoduje, że książka może być przewodnikiem w jedno lub dwusemestralnym kursie analityki danych dla studentów wyższych lat studiów matematyki, statystyki i informatyki. Ponieważ wymagana wiedza wstępna nie jest zbyt obszerna, studenci po kursie z probabilistyki lub statystyki, ze znajomością podstaw algebry i analizy matematycznej oraz po kurs programowania nie będą mieć problemów, tekst doskonale nadaje się także do samodzielnego studiowania przez absolwentów kierunków ścisłych. Podstawowy materiał jest dobrze ilustrowany obszernymi zagadnieniami zaczerpniętymi z rzeczywistych problemów. Skojarzona z książką strona internetowa wspiera czytelnika danymi wykorzystanymi w książce, a także prezentacją wybranych fragmentów wykładu. Jestem przekonany, że tematem książki jest nowa dziedzina nauki.
EN
The book under review gives a comprehensive presentation of data science algorithms, which means on practical data analytics unites fundamental principles, algorithms, and data. Algorithms are the keystone of data analytics and the focal point of this textbook. The data science, as the authors claim, is the discipline since 2001. However, informally it worked before that date (cf. Cleveland(2001)). The crucial role had the graphic presentation of the data as the visualization of the knowledge hidden in the data. It is the discipline which covers the data mining as the tool or important topic. The escalating demand for insights into big data requires a fundamentally new approach to architecture, tools, and practices. It is why the term data science is useful. It underscores the centrality of data in the investigation because they store of potential value in the field of action. The label science invokes certain very real concepts within it, like the notion of public knowledge and peer review. This point of view makes that the data science is not a new idea. It is part of a continuum of serious thinking dates back hundreds of years. The good example of results of data science is the Benford law (see Arno Berger and Theodore P. Hill(2015, 2017). In an effort to identifying some of the best-known algorithms that have been widely used in the data mining community, the IEEE International Conference on Data Mining (ICDM) has identified the top 10 algorithms in data mining for presentation at ICDM '06 in Hong Kong. This panel will announce the top 10 algorithms and discuss the impact and further research of each of these 10 algorithms in 2006. In the present book, there are clear and intuitive explanations of the mathematical and statistical foundations make the algorithms transparent. Most of the algorithms announced by IEEE in 2006 are included. But practical data analytics requires more than just the foundations. Problems and data are enormously variable and only the most elementary of algorithms can be used without modification. Programming fluency and experience with real and challenging data are indispensable and so the reader is immersed in Python and R and real data analysis. By the end of the book, the reader will have gained the ability to adapt algorithms to new problems and carry out innovative analysis.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.