Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 12

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  wektoryzacja
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
In the present article, we describe the implementation of the finite element numerical integration algorithm for the Xeon Phi coprocessor. The coprocessor was an extension of the many-core specialized unit for calculations, and its performance was comparable with the corresponding GPUs. Its main advantages were the built-in 512-bit vector registers and the ease of transferring existing codes from traditional x86 architectures. In the article, we move the code developed for a standard CPU to the coprocessor. We compareits performance with our OpenCL implementation of the numerical integration algorithm, previously developed for GPUs. The GPU code is tuned to fit into a coprocessor by ourauto-tuning mechanism. Tests included two types of tasks to solve, using two types of approximation and two types of elements. The obtained timing results allow comparing the performance of highly optimized CPU and GPU codes with a Xeon Phi coprocessor performance. This article answers whether such massively parallel architectures perform better using the CPU or GPU programming method. Furthermore, we have compared the Xeon Phi architecture and the latest available Intel’s i9 13900K CPU when writing this article. This comparison determines if the old Xeon Phi architecture remains competitive in today’s computing landscape. Our findings provide valuable insights for selectingthe most suitable hardware for numerical computations and the appropriate algorithmic design.
EN
The paper aims to propose innovative ideas on developing brand management techniques. The authors apply a novel quantitative approach involving semantic analysis of external brand communications to determine whether the brand value system is aligned with customers’ core values. Based on the survey on the main life values of the selected audience, a standard scale was compiled, in which the structure of values is represented as a vector of 26 variables. On the other hand, the semantic core of each of the studied brands was analyzed and presented as a vector of comparisons with this scale. This allowed calculating the cosine proximity of the vectors of the value structure of brands to each other. To prove the concept, the research compares value structures of six luxury brands ranked among the most expensive in 2020. The suggested technique can be used as a tool for market analysis, in particular, strategic brand positioning management and setting up communication strategies of companies.
PL
Celem artykułu jest przedstawienie innowacyjnych pomysłów na rozwój technik zarządzania marką. Autorzy stosują nowatorskie podejście ilościowe polegające na analizie semantycznej zewnętrznej komunikacji marki w celu ustalenia, czy system wartości marki jest zgodny z podstawowymi wartościami klientów. Na podstawie badania głównych wartości życiowych wybranej grupy odbiorców opracowano standardową skalę, w której strukturę wartości przedstawiono jako wektor 26 zmiennych. Z kolei rdzeń semantyczny każdej z badanych marek został przeanalizowany i przedstawiony jako wektor porównań z tą skalą. Pozwoliło to na obliczenie cosinusowej bliskości wektorów struktury wartości marek względem siebie. Na potwierdzenie tej koncepcji w badaniu porównano struktury wartości sześciu luksusowych marek, które znalazły się wśród najdroższych w 2020 roku. Zaproponowana technika może być wykorzystana jako narzędzie do analizy rynku, w szczególności do zarządzania strategicznym pozycjonowaniem marki i tworzenia strategii komunikacyjnych firm.
EN
One of the most popular sources of elevation data covering the most of the Earth's surface with spatial resolution of up to 30 m (1 angular second to be exact) is the SRTM model. This terrain model has two main disadvantages: it covers the area of the Earth between the parallels 54°S and 60°N only, and in some mountainous and desert areas there are gaps (voids) in the data. Additionally, it may not be suitable for more detailed visualization and analysis due to their limited accuracy. Therefore, the paper attempts to find an alternative source of elevation data. One of them may be archival maps, on which the terrain is presented by means of contours. By vectorization of such lines and adding respective attributes they can serve as a base for building digital terrain models. Examples of such maps are maps created in the period before World War II by Polish Military Geographical Institute (WIG). Although newer topographic maps or even more accurate spatial databases exist, it is assumed that as official materials WIG maps were not covered by copyright, so they are in public domain, just like SRTM. Conducted research and literature studies have shown that the issue of using contours extracted from archival topographic maps is not unambiguous. The lack of reproducibility in the results obtained does not allow making clear recommendations on the feasibility of using archival maps. Using a contour drawing as the sole source of elevation data, without any control, should be considered risky. On the other hand, it seems possible to use them as supplementary and perhaps refining material, but only in places where consistency with other data can be observed.
EN
Computed tomography (CT) is a widely used imaging technique in medical diagnosis. Among the latest advances in CT imaging techniques, the use of cone-beam X-ray projections, instead of the usual planar fan beam, promises faster yet safer 3D imaging in comparison to the previous CT imaging methodologies. This technique is called Cone Beam CT (CBCT). However, these advantages come at the expense of a more challenging 3D reconstruction problem that is still an active research area to improve the speed and quality of image reconstruction. In this paper, we propose a rapid parallel Multiplicative Algebraic Reconstruction Technique (rpMART) via a vectorization process for CBCT which gives more accurate and faster reconstruction even with a lower number of projections via parallel computing. We have compared rpMART with the parallel version of Algebraic Reconstruction Technique (pART) and the conventional non-parallel versions of npART, npMART and Feldkamp, Davis, and Kress (npFDK) techniques. The results indicate that the reconstructed volume images from rpMART provide a higher image quality index of 0.99 than the indices of pART and npFDK of 0.80 and 0.39, respectively. Also the proposed implementation of rpMART and pART via parallel computing significantly reduce the reconstruction time from more than 6 h with npART and npMART to 580 and 560 s with the full 360° projections data, respectively. We consider that rpMART could be a better image reconstruction technique for CBCT in clinical applications instead of the widely used FDK method.
EN
The aim of the studies was to design, implement and test the algorithm for vectorization of the scene, which is analyzed by an autonomous robot. The vectorization is the process of extraction of the contours of the objects located in the image taken by a camera. The result is stored in a computer's (robot's) memory as a sequence of points in euclidean space marking the examined objects' corners. During the tests, various images were used. Each one was previously pre-processed in a different way in order to reveal and highlight the contours of the objects. The vectorization process is divided into three steps which are described in detail in this article.
EN
The aim of this study was to prepare geomorphological maps of pomorskie and warminsko-mazurskie voivodeships in scale 1:300 000. Analysis primarily were based on the General Geomorphological Map of Poland 1:500 000 and Landsat 5 TM satellite images in RGB 453 composition, and alternatively with Geological Map of Poland 1:200 000, Topographic Map of Poland 1:100 000 and Digital Terrain Model from Shuttle Radar Topography Mission. These materials were processed into digital form and imported them PUWG 1992 coordinate system. Based on them was lead interpretation and vectorization of geomorphological forms. It was detailing the boundaries in accordance with the content of the General Geomorphological Map of Poland 1:500 000. Then polygons were coded according to the numbering of J. Borzuchowski (2010). Very important was process to design a legend and then editing maps. The last stage of this study was to prepare a composition for printing maps. The effect of studies are geomorphological maps of pomorskie and warminsko-mazurskie voivodeships in scale 1:300 000, and an interactive databases in ESRI shapefile format (*.shp).
PL
W niniejszym opracowaniu przedstawiono procedurę, która umożliwia uzyskanie - w warstwie GIS, którą tworzą wieloboki uogólnione - zadanych pól powierzchni, przez modyfikację, spełniającą określone warunki funkcyjne, współrzędnych wierzchołków wieloboków. Przykładowe wykorzystanie wprowadzonej procedury przedstawiono dla warstwy działek ewidencyjnych z Systemu Ewidencji Gruntów i Budynków.
EN
The article presents the procedure of obtaining the areas of generalized polygons by conditioned modification of vertices coordinates. In the practical use, the procedure was presented for the cadastral parcels layer, managed by the Polish Land and Building Register.
PL
Ogłoszone przez zamawiającego zamówienie na studium wykonalności dotyczy projektu nowobudowanej linii kolejowej o długości ok. 470 km. Związane z tą inwestycją m.in. zagadnienia trasowania linii w terenie i jej oddziaływanie na środowisko o tak dużej skali nie były przedmiotem analiz u Zamawiającego. Z tego względu Zamawiający podjął decyzję o ogłoszeniu zamówienia w trybie dialogu konkurencyjnego. Realizacja studium wykonalności pokazała zasadność tego wyboru. W dziedzinie dotyczącej geodezji i kartografii zastosowano najnowocześniejsze zdobycze techniki, które umożliwiły opracowanie dokumentacji środowiskowej i trasowania zgodnie z harmonogramem realizacji studium wykonalności.
EN
The order for feasibility study concerns the project of new-built railway line of 470 km length was announced by the Orderer. Some problems related to the order like: line tracing in the ground and environmental impact assessment of such a large scale project have not been the subject of the analysis by the Orderer. Because of that the Orderer took a decision to announce the invitation to order under the competitive dialog mode. The feasibility study realization shows the legitimacy of such a choice. In the field of geodesy and cartography the most modern technic achievements have been applied and they allow to elaborate the environmental and tracing documentation according to the schedule of the feasibility study realization.
9
Content available Cyfrowa mapa geomorfologiczna Mazowsza
EN
The goal of this paper is to present a scope and a research method of preparing the digital geomorphological map of Mazovia of the scale 1:300000. The map was prepared in the ArcGIS environment on the base of remote sensing (RGB 453 composition of the Landsat TM) and carthographic data (the General Geomorphological Map of Poland of the scale 1:500000, the Geological Map of Poland of the scale 1:200000, topographic maps and the DEM from the SRTM) interpretation. The maps were scanned, geocorrected and digitalised. Built layers were used for creating geomorphological units in the scale of 1:300000. The final stage was editing and creating the hard copy and the digital version of the Maziovia geomorphological map.
EN
The article presents results of integrating spectral images of lower resolution with higher resolution panchromatic images. The analysis was performed on Landsat and IRS images. Four different methods of integration were applied. The aim of the research was twofold: to evaluate pan-sharpened images from photo interpretation point of view (in the process of feature borders vectorisation) and to assess their applicability for supervised spectral classification procedures. In both cases the reference data were obtained from airborne orthophotomap.
PL
W publikacji przedstawiono wyniki badań związanych z integracją danych spektralnych o niższej rozdzielczości przestrzennej z obrazami panchromatycznymi o wyższej rozdzielczości przestrzennej. Analizy przeprowadzono na danych Landsat i IRS. Testowano cztery metody integracji danych. Zrealizowano dwa cele badań: określono walory fotointerpretacyjne kompozycji barwnych o podwyższonej rozdzielczości w praktycznym aspekcie wektoryzacji granic obiektów oraz wstępnie oceniono przydatności scalonych obrazów do procedur nadzorowanej klasyfikacji spektralnej. Danych referencyjnych do oceny poprawności wektoryzacji i klasyfikacji dostarczyła ortofotomapa ze zdjęć lotniczych.
PL
Artykuł przedstawia sposób przetwarzania obrazu i utworzenie listy wektorów będących odwzorowaniem znajdujących się na obrazie krawędzi. Metoda ta opiera się na śledzeniu przebiegu linii stanowiących rezultat działania algorytmem detekcji krawędzi (np. Canny). Proponowana metoda jest szybka oraz zapewnia eliminację redundancji wyniku. Doświadczenia wskazują że może być stosowana do wektoryzacji obrazu w czasie rzeczywistym.
EN
The following article presents an algorithm for image vectorisation. The method presented below relays on an output from edgedetection algorithm (e.g. Canny) and in turn produces a list of vectors that are representation of all straight lines on the image. The algorithm proven itself to be fast and prevents redundant output. Experiments show that the method can be used for real-time processing.
PL
Niniejszy artykuł prezentuje wyniki badań porównujących metody detekcji krawędzi na obrazach cyfrowych oraz weryfikację ich przydatności w procesie automatycznej wektoryzacji. W ramach eksperymentu dokonano implementacji znanych algorytmów detekcji krawędzi bazujących na analizie pochodnych funkcji jasności obrazu (Sobela, Kircha, Canny’ego, Marr-Hildretha) jak również nowych rozwiązań (algorytm SUSAN). Opracowany w środowisku Matlab program autorski umożliwił uzyskanie punktowego opisu krawędzi, aproksymację ich przebiegu prostymi oraz analizę jakości uzyskanych wyników. Badania przeprowadzono na dwudziestu dwóch obiektach, które podzielono na dwie grupy – obiektów typowych i nietypowych. Obiekty te pochodzą z projektów wykonanych w ramach inwentaryzacji zabytków. Zdjęcia zostały pozyskane metodą bezpośrednią – aparatem cyfrowym Canon EOS 300D z obiektywami Canon EF 14 mm L USM i Canon EF 50mm L USM oraz pośrednią – kamerą analogową Rolleiflex 6006 metric i skanerem PHOTOSCAN – TD. Dla sprawdzenia poprawności wyznaczonych krawędzi dokonano ich ręcznej wektoryzacji. Obliczono współczynniki określające dokładność ilościowo – jakościową algorytmów detekcji krawędzi przy zadanych parametrach. Umożliwiło to wytypowanie optymalnych ustawień detekcji. Obliczanymi współczynnikami były: kompletność (completeness), poprawność (correctness) i jakość (quality). Otrzymany w wyniku detekcji krawędzi obraz binarny porównano z obrazem zawierającym informacje o rzeczywistych krawędziach obiektu. Wyniki zestawiono i na ich podstawie wytypowano optymalny algorytm detekcji krawędzi (Canny) oraz określono w procentach ilość uzyskanych automatycznie wektorów, które mogą być wykorzystane w dalszych etapach opracowań fotogrametrycznych.
EN
This paper presents the results of research work that compares methods of edge detection on digital images, as well as verification of their use in the automatic vectorization process. Within the experiment framework, known algorithms of edge detection that are based on the analysis of image brightness function derivatives (Sobel, Kirch, Canny, Marr-Hildreth) were implemented, as well as new solutions (the SUSAN algorithm) were considered. The original software, developed in the Matlab environment, obtained the point description of edges, the approximation of their routes by means of straight lines, as well as a quality analysis of the obtained results. Tests were performed on 22 objects, which were divided into two groups: typical and atypical ones. The objects were derived from projects in the historical monument inventory scheme. Images were acquired both by means of a direct method (Canon EOS 300D digital camera, provided with Canon EF 14 mm L USM and Canon EF 50 mm L USM lenses), and by means of an indirect method (analogue Rolleiflex 6006 metric camera and PHOTOSCAN-TD scanner). In order to check the accuracy of the evaluated edges, they were subjected to manual vectorization. Coefficients determining the quantitative and qualitative accuracy of edge detection algorithms at set parameters were calculated. This made it possible to single out optimum detection settings. The calculated coefficients included completeness, correctness, and quality. The binary image received as a result of the edge detection was compared with the image containing information about actual object edges. The results were put together and, based on them, the optimum edge detection algorithm was selected (Canny). In addition, the percentage amount of automatically gained vectors which may be used in further steps in the photogrammetric process was determined.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.