Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 16

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Wektoryzacja
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
In the present article, we describe the implementation of the finite element numerical integration algorithm for the Xeon Phi coprocessor. The coprocessor was an extension of the many-core specialized unit for calculations, and its performance was comparable with the corresponding GPUs. Its main advantages were the built-in 512-bit vector registers and the ease of transferring existing codes from traditional x86 architectures. In the article, we move the code developed for a standard CPU to the coprocessor. We compareits performance with our OpenCL implementation of the numerical integration algorithm, previously developed for GPUs. The GPU code is tuned to fit into a coprocessor by ourauto-tuning mechanism. Tests included two types of tasks to solve, using two types of approximation and two types of elements. The obtained timing results allow comparing the performance of highly optimized CPU and GPU codes with a Xeon Phi coprocessor performance. This article answers whether such massively parallel architectures perform better using the CPU or GPU programming method. Furthermore, we have compared the Xeon Phi architecture and the latest available Intel’s i9 13900K CPU when writing this article. This comparison determines if the old Xeon Phi architecture remains competitive in today’s computing landscape. Our findings provide valuable insights for selectingthe most suitable hardware for numerical computations and the appropriate algorithmic design.
EN
The paper aims to propose innovative ideas on developing brand management techniques. The authors apply a novel quantitative approach involving semantic analysis of external brand communications to determine whether the brand value system is aligned with customers’ core values. Based on the survey on the main life values of the selected audience, a standard scale was compiled, in which the structure of values is represented as a vector of 26 variables. On the other hand, the semantic core of each of the studied brands was analyzed and presented as a vector of comparisons with this scale. This allowed calculating the cosine proximity of the vectors of the value structure of brands to each other. To prove the concept, the research compares value structures of six luxury brands ranked among the most expensive in 2020. The suggested technique can be used as a tool for market analysis, in particular, strategic brand positioning management and setting up communication strategies of companies.
PL
Celem artykułu jest przedstawienie innowacyjnych pomysłów na rozwój technik zarządzania marką. Autorzy stosują nowatorskie podejście ilościowe polegające na analizie semantycznej zewnętrznej komunikacji marki w celu ustalenia, czy system wartości marki jest zgodny z podstawowymi wartościami klientów. Na podstawie badania głównych wartości życiowych wybranej grupy odbiorców opracowano standardową skalę, w której strukturę wartości przedstawiono jako wektor 26 zmiennych. Z kolei rdzeń semantyczny każdej z badanych marek został przeanalizowany i przedstawiony jako wektor porównań z tą skalą. Pozwoliło to na obliczenie cosinusowej bliskości wektorów struktury wartości marek względem siebie. Na potwierdzenie tej koncepcji w badaniu porównano struktury wartości sześciu luksusowych marek, które znalazły się wśród najdroższych w 2020 roku. Zaproponowana technika może być wykorzystana jako narzędzie do analizy rynku, w szczególności do zarządzania strategicznym pozycjonowaniem marki i tworzenia strategii komunikacyjnych firm.
EN
One of the most popular sources of elevation data covering the most of the Earth's surface with spatial resolution of up to 30 m (1 angular second to be exact) is the SRTM model. This terrain model has two main disadvantages: it covers the area of the Earth between the parallels 54°S and 60°N only, and in some mountainous and desert areas there are gaps (voids) in the data. Additionally, it may not be suitable for more detailed visualization and analysis due to their limited accuracy. Therefore, the paper attempts to find an alternative source of elevation data. One of them may be archival maps, on which the terrain is presented by means of contours. By vectorization of such lines and adding respective attributes they can serve as a base for building digital terrain models. Examples of such maps are maps created in the period before World War II by Polish Military Geographical Institute (WIG). Although newer topographic maps or even more accurate spatial databases exist, it is assumed that as official materials WIG maps were not covered by copyright, so they are in public domain, just like SRTM. Conducted research and literature studies have shown that the issue of using contours extracted from archival topographic maps is not unambiguous. The lack of reproducibility in the results obtained does not allow making clear recommendations on the feasibility of using archival maps. Using a contour drawing as the sole source of elevation data, without any control, should be considered risky. On the other hand, it seems possible to use them as supplementary and perhaps refining material, but only in places where consistency with other data can be observed.
EN
Paper concerning possibilities of using airborne laser scanning (ALS) data for monitoring land cover changes, mainly land abandonment, especially for the aspect of detection forest succession area. Automated method was developed based on the product of ALS data processing − normalized Digital Surface Model (nDSM). The results of ALS data processing were compared with the official cadastral data and the result of photointerpretation and manual vectorization orthophotomap. As a test site was chosen area in Wieliczka district (Małopolska voivodship, south of Poland). The area of study consisted of several plots listed in the cadastral database mainly as agricultural areas, meadows or pastures but most of them not used for agriculture, but abandoned and covered by process of the secondary forest succession. Detailed information about actual land cover was determined for year 2012 based on ALS data from ISOK project (Head of Geodesy and Cartography). Research showed discrepancy between the cadastral data and actual state for plots. Using ALS data, there was possibility in the semi-automatic way to confirm the process of forest succession in the analysed area, according to the results of vectorization orthophotomap.
PL
Artykuł dotyczy oceny możliwości zastosowania danych z lotniczego skanowania laserowego (ALS) do monitorowania pokrycia terenu, głównie w aspekcie detekcji zmiany użytkowania rolniczego gruntów i postępującego procesu sukcesji leśnej. Metoda zautomatyzowana została opracowana w oparciu o produkt przetwarzania danych ALS − znormalizowany Numeryczny Model Pokrycia (zNMPT). Wyniki porównano z danymi ewidencyjnymi oraz wynikiem fotointerpretacji i wektoryzacji ortofotomapy. Jako obszar testowy wybrano teren w powiecie wielickim (woj. małopolskie). Obszar badań obejmował kilkadziesiąt działek wyszczególnionych w ewidencji gruntów jako tereny rolnicze, łąki lub pastwiska Większość analizowanych działek nie była użytkowana rolniczo, lecz objęta procesem wtórnej sukcesji leśnej. Szczegółowe informacje o aktualnym pokryciu terenu określono na rok 2012 w oparciu o dane ALS z projektu ISOK (Główny Urząd Geodezji i Kartografii). W wyniku opracowania wskazano rozbieżności pomiędzy danymi katastralnymi a stanem rzeczywistym. Wykorzystując dane ALS, w zautomatyzowany sposób można było potwierdzić postępujący proces sukcesji leśnej na analizowanym obszarze w odniesieniu do wyników wektoryzacji ortofotomapy
PL
Obserwowane w ostatnich latach globalne zmiany klimatu i towarzyszące mu ekstremalne zjawiska pogodowe (wysoka temperatura, susza atmosferyczna i glebowa, gwałtowne wiatry itp.) prowadzą bezpośrednio (np. wiatrowały) lub pośrednio (np. gradacje szkodliwych owadów) do dynamicznych przemian w drzewostanach, szczególnie we wrażliwych ekosystemach górnoreglowego boru świerkowego. Celem prezentowanej pracy było opracowanie aktualnej cyfrowej mapy użytkowania i pokrycia terenu (ang. Land Use Land Cover; LULC) obejmującego fragmenty: Doliny Kamienicy, masywu Kudłonia oraz Jaworzyny Kamienickiej w centralnej części Gorczańskiego Parku Narodowego (GPN), ze szczególnym uwzględnieniem klas drzewostanów będących w fazie zamierania lub już zniszczonych. Pozyskane w procesie fotointerpretacji dane w postaci wektorów zasilić miały bazy danych systemu GIS w GPN w celu wykonania analiz przestrzennych. W ramach prac kameralnych dokonano fotointerpretacji archiwalnych stereomodeli zdjęć lotniczych CIR z 1997 roku oraz cyfrowej ortofotomapy lotniczej z 2011 roku (CIR, GSD 0,25 m). Szczególną uwagę zwrócono na obszary objęte rozpadem drzewostanów świerkowych w latach 1979-1987 na południowych zboczach Kudłonia, Wierchu Spalone oraz Jaworzyny Kamienickiej. Wylesienia zarejestrowane na archiwalnych zdjęciach CIR z 1997 roku obejmowały w minionym okresie zaledwie 114,11 ha (4,37%).Wyniki wektoryzacji zasięgu klas LULC na ortofotomapie z 2011 roku wskazują, iż na obszarze badań (2611,42 ha) wystąpiło aż 1604 sztuk gniazd kornikowych. Łącznie klasy uszkodzonych drzewostanów zajęły 374,48 ha (14,34% całego obszaru analiz), przy czym drzewostany świerkowe bez wyraźnych oznak uszkodzenia występowały na 434,01 ha (16,62%). Przeprowadzone badania potwierdziły dużą dynamikę przemian drzewostanów, tj. ich zamierania lub rozpadu powodowanego przez wiatry, ale wskazały także, iż wtórna sukcesja leśna zachodząca na polanach oraz regeneracja lasu w obszarach poklęskowych są gwarantem istnienia drzewostanów w Gorcach, choć już nie wszędzie jako monokultur świerkowych. Zdjęcia lotnicze i produkty ich przetwarzania czyli ortofotomapy cyfrowe kolejny raz udowodniły ogromną przydatność do kartowania klas pokrycia terenu i różnych form jego użytkowania czy kondycji ekosystemów leśnych. Ze względu na niskie koszty pozyskania cyfrowych zdjęć lotniczych, zaleca się wprowadzenie w GPN na stałe monitoringu drzewostanów opartego na fotointerpretacji bądź nawet półautomatycznej klasyfikacji ortoobrazów cyfrowych. Wyniki kartowania zasilając bazy danych GIS dawałyby pełną wiedzę o procesach zachodzących przestrzennie i w czasie w Gorczańskim Parku Narodowym.
EN
Recently observed global climate changes and associated extreme weather events (high temperature, atmospheric and soil drought, strong winds, etc.) can lead directly (e.g. windfalls) or indirectly (e.g. insects breakouts) to dynamic changes in mountainous stands, especially in sensitive upper forest belt composed of Norway spruce. The aim of this work was to develop the up-to-date digital Land Use and Land Cover map (LULC) including parts of: Kamienica Valley, Kudłoń and Jaworzyna Kamienicka massive located in the central part of Gorce National Park (South Poland), with particular emphasis on dying or already destroyed forest stand classes. Vector data acquired in the process of photointerpretation was the input data for GIS databases with the goal to perform GIS spatial analysis. The archive CIR aerial photos from 1997 and the digital orthophoto from 2011 (CIR, GSD 0.25 m) were elaborated in the frames of this project. Particular attention was paid to the areas covered by the spruce stands in the period 1979-1987 on the southern slopes of Kudłoń, Wierch Spalone and Jaworzyna Kamienicka. Deforestation interpreted and mapped on the archive CIR stereo models from 1997, covered 114.11 ha (4.37%) only. The results of photointerpretation workout of the LULC classes borders (the orthophoto from 2011) indicate that in the test area (2,611.42 ha) occurred 1604 pcs. of the, so-called, „bark beetle nest’s” (Ips typographus L). In total, the classes of damaged forests occupied 374.48 ha (14.34% of the total test area), the Norway spruce with no obvious signs of damage occurred on 434.01 ha (16.62%) only. The performed study confirmed the high dynamics of forest stands dieback or decay caused by winds or insects and also indicated that secondary forest succession occurring in clearings and regeneration of forest on post-disaster areas are a kind of the guarantee of forest existence in the Gorce Mountains, though not everywhere as Norway spruce monocultures. The CIR aerial photographs or digital orthophotomaps once again proved a huge usefulness as the geodata for mapping the LULC classes in mountain environment. Due to low costs of digital aerial photographs acquisition it is recommended to introduce in the Gorce National Park the permanent monitoring of forests based on photogrammetric 3D workout or even semi-automatic image analysis (orthophoto). Supplying the GIS databases the mapping results would provide a comprehensive understanding of spatial processes occurring in the Gorce National Park in time.
EN
Computed tomography (CT) is a widely used imaging technique in medical diagnosis. Among the latest advances in CT imaging techniques, the use of cone-beam X-ray projections, instead of the usual planar fan beam, promises faster yet safer 3D imaging in comparison to the previous CT imaging methodologies. This technique is called Cone Beam CT (CBCT). However, these advantages come at the expense of a more challenging 3D reconstruction problem that is still an active research area to improve the speed and quality of image reconstruction. In this paper, we propose a rapid parallel Multiplicative Algebraic Reconstruction Technique (rpMART) via a vectorization process for CBCT which gives more accurate and faster reconstruction even with a lower number of projections via parallel computing. We have compared rpMART with the parallel version of Algebraic Reconstruction Technique (pART) and the conventional non-parallel versions of npART, npMART and Feldkamp, Davis, and Kress (npFDK) techniques. The results indicate that the reconstructed volume images from rpMART provide a higher image quality index of 0.99 than the indices of pART and npFDK of 0.80 and 0.39, respectively. Also the proposed implementation of rpMART and pART via parallel computing significantly reduce the reconstruction time from more than 6 h with npART and npMART to 580 and 560 s with the full 360° projections data, respectively. We consider that rpMART could be a better image reconstruction technique for CBCT in clinical applications instead of the widely used FDK method.
EN
The aim of the studies was to design, implement and test the algorithm for vectorization of the scene, which is analyzed by an autonomous robot. The vectorization is the process of extraction of the contours of the objects located in the image taken by a camera. The result is stored in a computer's (robot's) memory as a sequence of points in euclidean space marking the examined objects' corners. During the tests, various images were used. Each one was previously pre-processed in a different way in order to reveal and highlight the contours of the objects. The vectorization process is divided into three steps which are described in detail in this article.
EN
The aim of this study was to prepare geomorphological maps of pomorskie and warminsko-mazurskie voivodeships in scale 1:300 000. Analysis primarily were based on the General Geomorphological Map of Poland 1:500 000 and Landsat 5 TM satellite images in RGB 453 composition, and alternatively with Geological Map of Poland 1:200 000, Topographic Map of Poland 1:100 000 and Digital Terrain Model from Shuttle Radar Topography Mission. These materials were processed into digital form and imported them PUWG 1992 coordinate system. Based on them was lead interpretation and vectorization of geomorphological forms. It was detailing the boundaries in accordance with the content of the General Geomorphological Map of Poland 1:500 000. Then polygons were coded according to the numbering of J. Borzuchowski (2010). Very important was process to design a legend and then editing maps. The last stage of this study was to prepare a composition for printing maps. The effect of studies are geomorphological maps of pomorskie and warminsko-mazurskie voivodeships in scale 1:300 000, and an interactive databases in ESRI shapefile format (*.shp).
PL
W niniejszym opracowaniu przedstawiono procedurę, która umożliwia uzyskanie - w warstwie GIS, którą tworzą wieloboki uogólnione - zadanych pól powierzchni, przez modyfikację, spełniającą określone warunki funkcyjne, współrzędnych wierzchołków wieloboków. Przykładowe wykorzystanie wprowadzonej procedury przedstawiono dla warstwy działek ewidencyjnych z Systemu Ewidencji Gruntów i Budynków.
EN
The article presents the procedure of obtaining the areas of generalized polygons by conditioned modification of vertices coordinates. In the practical use, the procedure was presented for the cadastral parcels layer, managed by the Polish Land and Building Register.
PL
Ogłoszone przez zamawiającego zamówienie na studium wykonalności dotyczy projektu nowobudowanej linii kolejowej o długości ok. 470 km. Związane z tą inwestycją m.in. zagadnienia trasowania linii w terenie i jej oddziaływanie na środowisko o tak dużej skali nie były przedmiotem analiz u Zamawiającego. Z tego względu Zamawiający podjął decyzję o ogłoszeniu zamówienia w trybie dialogu konkurencyjnego. Realizacja studium wykonalności pokazała zasadność tego wyboru. W dziedzinie dotyczącej geodezji i kartografii zastosowano najnowocześniejsze zdobycze techniki, które umożliwiły opracowanie dokumentacji środowiskowej i trasowania zgodnie z harmonogramem realizacji studium wykonalności.
EN
The order for feasibility study concerns the project of new-built railway line of 470 km length was announced by the Orderer. Some problems related to the order like: line tracing in the ground and environmental impact assessment of such a large scale project have not been the subject of the analysis by the Orderer. Because of that the Orderer took a decision to announce the invitation to order under the competitive dialog mode. The feasibility study realization shows the legitimacy of such a choice. In the field of geodesy and cartography the most modern technic achievements have been applied and they allow to elaborate the environmental and tracing documentation according to the schedule of the feasibility study realization.
11
Content available Cyfrowa mapa geomorfologiczna Mazowsza
EN
The goal of this paper is to present a scope and a research method of preparing the digital geomorphological map of Mazovia of the scale 1:300000. The map was prepared in the ArcGIS environment on the base of remote sensing (RGB 453 composition of the Landsat TM) and carthographic data (the General Geomorphological Map of Poland of the scale 1:500000, the Geological Map of Poland of the scale 1:200000, topographic maps and the DEM from the SRTM) interpretation. The maps were scanned, geocorrected and digitalised. Built layers were used for creating geomorphological units in the scale of 1:300000. The final stage was editing and creating the hard copy and the digital version of the Maziovia geomorphological map.
EN
The article presents results of integrating spectral images of lower resolution with higher resolution panchromatic images. The analysis was performed on Landsat and IRS images. Four different methods of integration were applied. The aim of the research was twofold: to evaluate pan-sharpened images from photo interpretation point of view (in the process of feature borders vectorisation) and to assess their applicability for supervised spectral classification procedures. In both cases the reference data were obtained from airborne orthophotomap.
PL
W publikacji przedstawiono wyniki badań związanych z integracją danych spektralnych o niższej rozdzielczości przestrzennej z obrazami panchromatycznymi o wyższej rozdzielczości przestrzennej. Analizy przeprowadzono na danych Landsat i IRS. Testowano cztery metody integracji danych. Zrealizowano dwa cele badań: określono walory fotointerpretacyjne kompozycji barwnych o podwyższonej rozdzielczości w praktycznym aspekcie wektoryzacji granic obiektów oraz wstępnie oceniono przydatności scalonych obrazów do procedur nadzorowanej klasyfikacji spektralnej. Danych referencyjnych do oceny poprawności wektoryzacji i klasyfikacji dostarczyła ortofotomapa ze zdjęć lotniczych.
PL
Artykuł przedstawia sposób przetwarzania obrazu i utworzenie listy wektorów będących odwzorowaniem znajdujących się na obrazie krawędzi. Metoda ta opiera się na śledzeniu przebiegu linii stanowiących rezultat działania algorytmem detekcji krawędzi (np. Canny). Proponowana metoda jest szybka oraz zapewnia eliminację redundancji wyniku. Doświadczenia wskazują że może być stosowana do wektoryzacji obrazu w czasie rzeczywistym.
EN
The following article presents an algorithm for image vectorisation. The method presented below relays on an output from edgedetection algorithm (e.g. Canny) and in turn produces a list of vectors that are representation of all straight lines on the image. The algorithm proven itself to be fast and prevents redundant output. Experiments show that the method can be used for real-time processing.
PL
Aktualnie istniejące i wykorzystywane przez PKP systemy informacyjne dostarczają jedynie możliwości uzyskiwania informacji opisowych o wybranych obiektach infrastruktury kolejowej. Dane te nie są jednak obecnie wystarczające i wymagają uzupełnienia oraz pełnej integracji z danymi o charakterze przestrzennym. Oznacza to praktycznie konieczność budowania geograficznych systemów informacyjnych ukierunkowanych na zagadnienia kolejnictwa. Celem niniejszej pracy jest udzielenie odpowiedzi na pytanie, czy i w jakim zakresie wysokorozdzielcze zobrazowania satelitarne mogą być podstawą budowy geometrycznej części Geograficznego Kolejowego Systemu Informacyjnego dla celów zarządzania oraz inwentaryzowania obiektów infrastruktury kolejowej. Dokonano oceny przydatności obrazów z satelity QuickBird dla pozyskiwania informacji przestrzennej o powyższych obiektach w aspekcie celów, jakim odpowiadać ma tworzony system. Poddano wektoryzacji manualnej wybrane elementy infrastruktury kolejowej dla fragmentu poznańskiego węzła kolejowego, obejmującego dwie stacje kolejowe i odcinek szlaku kolejowego zawarty między nimi. Oceniono dokładność przeprowadzonej wektoryzacji, a w dalszym etapie dokładność położenia sytuacyjnego badanych obiektów. Stwierdzono wysoką skuteczność wyznaczenia położenia elementów infrastruktury kolejowej, spełniającą wymagania dla map z przedziału skal 1:5 000÷1:10 000.
EN
The rapid development of satellite sources and technology, as well as the development of their numerical processing, integration and visualization, has led to an increase in photogrammetric and remote sensing data. These sources are useful for creating different databases and information systems, further expanding their use. One of the domains in which their use has had a major impact in is the railway sector. Current applications can only provide descriptive information about the objects of railway infrastructure. However, for a long time there has been a need to also provide to users access to information about the localization of these objects. Therefore, the direction indicated by Geographic Information Systems is undoubtedly the right one and most desired. An example of a surface in which their usage has direct application is the possibility of direct localization of the railway infrastructure objects, mainly railroad lines and station objects, as well as obtaining the descriptive information which characterize them. The aim of this paper is to analyze the use of high resolution images for taking geographic data into account in the Railway Information System. This paper provides an analysis of the usefulness of the QuickBird satellite images from the point of view of the possibility to use them in creating a graphic part of the system. Some railway infrastructure objects for two railway stations (Poznan Glowny and Poznan Garbary) were manually vectorized, also including a part of the railroad route between them. The combined length of the test area was a total distance of 4 km. This paper presents an accuracy analysis of the vectorization and situation location of these objects. A high efficiency of assignment of the railroad infrastructure objects was obtained, for maps from a partition of 1:5 000÷1:10 000.
PL
Niniejszy artykuł prezentuje wyniki badań porównujących metody detekcji krawędzi na obrazach cyfrowych oraz weryfikację ich przydatności w procesie automatycznej wektoryzacji. W ramach eksperymentu dokonano implementacji znanych algorytmów detekcji krawędzi bazujących na analizie pochodnych funkcji jasności obrazu (Sobela, Kircha, Canny’ego, Marr-Hildretha) jak również nowych rozwiązań (algorytm SUSAN). Opracowany w środowisku Matlab program autorski umożliwił uzyskanie punktowego opisu krawędzi, aproksymację ich przebiegu prostymi oraz analizę jakości uzyskanych wyników. Badania przeprowadzono na dwudziestu dwóch obiektach, które podzielono na dwie grupy – obiektów typowych i nietypowych. Obiekty te pochodzą z projektów wykonanych w ramach inwentaryzacji zabytków. Zdjęcia zostały pozyskane metodą bezpośrednią – aparatem cyfrowym Canon EOS 300D z obiektywami Canon EF 14 mm L USM i Canon EF 50mm L USM oraz pośrednią – kamerą analogową Rolleiflex 6006 metric i skanerem PHOTOSCAN – TD. Dla sprawdzenia poprawności wyznaczonych krawędzi dokonano ich ręcznej wektoryzacji. Obliczono współczynniki określające dokładność ilościowo – jakościową algorytmów detekcji krawędzi przy zadanych parametrach. Umożliwiło to wytypowanie optymalnych ustawień detekcji. Obliczanymi współczynnikami były: kompletność (completeness), poprawność (correctness) i jakość (quality). Otrzymany w wyniku detekcji krawędzi obraz binarny porównano z obrazem zawierającym informacje o rzeczywistych krawędziach obiektu. Wyniki zestawiono i na ich podstawie wytypowano optymalny algorytm detekcji krawędzi (Canny) oraz określono w procentach ilość uzyskanych automatycznie wektorów, które mogą być wykorzystane w dalszych etapach opracowań fotogrametrycznych.
EN
This paper presents the results of research work that compares methods of edge detection on digital images, as well as verification of their use in the automatic vectorization process. Within the experiment framework, known algorithms of edge detection that are based on the analysis of image brightness function derivatives (Sobel, Kirch, Canny, Marr-Hildreth) were implemented, as well as new solutions (the SUSAN algorithm) were considered. The original software, developed in the Matlab environment, obtained the point description of edges, the approximation of their routes by means of straight lines, as well as a quality analysis of the obtained results. Tests were performed on 22 objects, which were divided into two groups: typical and atypical ones. The objects were derived from projects in the historical monument inventory scheme. Images were acquired both by means of a direct method (Canon EOS 300D digital camera, provided with Canon EF 14 mm L USM and Canon EF 50 mm L USM lenses), and by means of an indirect method (analogue Rolleiflex 6006 metric camera and PHOTOSCAN-TD scanner). In order to check the accuracy of the evaluated edges, they were subjected to manual vectorization. Coefficients determining the quantitative and qualitative accuracy of edge detection algorithms at set parameters were calculated. This made it possible to single out optimum detection settings. The calculated coefficients included completeness, correctness, and quality. The binary image received as a result of the edge detection was compared with the image containing information about actual object edges. The results were put together and, based on them, the optimum edge detection algorithm was selected (Canny). In addition, the percentage amount of automatically gained vectors which may be used in further steps in the photogrammetric process was determined.
PL
W pracy zaprezentowano uogólnioną metodę wyznaczania splotu liniowego z wykorzystaniem propozycji zawartej w pracy Blahut-a [2]. Metoda to opiera się na zastosowaniu zamiany sumy iloczynów występujących w równaniach splotu (przy założeniu, że rozmiar obydwóch sygnałów jest taki sam) na iloczyny sum. Dzięki takiemu podejściu istnieje możliwość zmniejszenia czasochłonnych operacji mnożenia, kosztem zwiększenia operacji dodawania. Proponowana w pracy metoda umożliwia syntezę algorytmu dla długości sygnałów spełniających warunek N >= 3 oraz realizację operacji splotu w środowisku wykonującym obliczenia równoległe z wykorzystaniem wektoryzacji obliczeń. Na podstawie propozycji i rozważań zawartych w pracy, autorzy opracowali programowy system generacji równań splotu liniowego, który oparto o przedstawioną metodę.
EN
In the paper an algorithm for linear convolution is presented. The algorithm assume that both convolved signals have the same length. The method used to synthesis the algorithm is based on conversion from sum products to product sums. This way the number of multiplication operations (more time consume operation than addition) is dimnished. The reduction of multiplication operations is done by expense of increasing addition operations. Direct realization of linear convolution operation needs N2 multiplication and (N-1)2- addition operations. Exponentially increasing number of multiplications was a reason to search for more effective algorithms. There are many algorithms aim to minimalize these operations [2, 3]. When time of multiplication is greater than time of addition (this situation exists in most cases) the gain can be obtained theoretically. The efficiency won't rely on number of arithmetic operations but complexity of computation control process [4] and data dependencies. Overall time of computations is dependent on implementation type (software or hardware). Therefore dimnishing operations like multiplications shouldn't be more important than clever improvements of data transfer control complexity. From hardware expenditures point of view algorithms with reduced number of operations should be synthesised. Presented generalized method (for any N fulfil the condition N>= 3) is based on suggestion by Blahut [2]. Obtained algorithm bas some more multiplications than a class of "fast" algorithms, but it characterized by simplier data transfers, so it is a certain compromise. For example, when N = 3 proposed algorithm gives reduction from 9 to 6 multiplications in expense of increasing additions form 4 to 13 in comparision with direct realization of convolution. As the result there is 33% gain of multiplications and 325% increasing of additions. When N is rising then gain of multiplications is also rising to the level about 50% and additions increase and stay at level about 250%. Presented algorithm was designed to be used in parallel processing and it can be adopted to hardware implementations using vectorization and bit-serial processing. The fact, that one of signals involved in convolution is often defined as constant, is the reason to use multipliers by set of constants. This can bring the further hardware reduction up. That way a hardware implementation can give more efficiency in the final analysis. Using presented approach, Authors have developed a software tool to generate convolution equations. In future works the system will be used to develop a complete system of automated mapping convolution algorithms into hardware using reprogrammable devices.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.