Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 96

Liczba wyników na stronie
first rewind previous Strona / 5 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  interpolation
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 5 next fast forward last
1
Content available remote The fidelity of compressed and interpolated medical images
EN
Due to the amount of medical image data being produced and transferred over networks, employing lossy compression has been accepted by worldwide regulatory bodies. As expected, increasing the degree of compression leads to decreasing image fidelity. The extent of allowable irreversible compression is dependent on the imaging modality and the nature of the image pathology as well as anatomy. Interpolation, which often causes image distortion, has been extensively used to rescale images during radiological diagnosis. This work attempts to assess the quality of medical images after the application of lossy compression followed by rescaling. This research proposes a fullreference objective measure of quality for medical images that considers their deterministic and statistical properties. Statistical features are acquired from the frequency domain of the signal and are combined with elements of the structural similarity index (SSIM). The aim is to construct a model that is specialized for medical images and that could serve as a predictor of quality.
PL
Obrazy medyczne umożliwiają specjalistom obserwację anatomii struktur oraz przebieg procesów fizjologicznych, które zachodzą w ludzkim ciele. Elektroniczna archiwizacja oraz możliwość cyfrowej komunikacji obrazów medycznych stały się niezwykle popularne w przemyśle systemów obrazowania medycznego. Dzięki nowoczesnym rozwiązaniom technologicznym możliwa jest zdalna diagnoza, szybszy dostęp do specjalisty, zdalne monitorowanie oraz ułatwiona komunikacja pomiędzy ośrodkami służby zdrowia. Limity szybkości sieci, eksplozja wzrostu technologicznego w dziedzinie modalności oraz ilość powstających, przetwarzanych i przesyłanych obrazów medycznych wpłynęła na rozważenie użycia metod nieodwracalnego kodowania w technologiach PACS przez światowe organy regulacyjne. Nieodwracalne kodowanie obrazów medycznych to między innymi kompresja i interpolacja oraz inne manipulacje obrazów. Zaletą użycia nieodwracalnego kodowania jest ulepszenie wydajności systemów poprzez zmniejszenie czasu przesłania oraz odtworzenia obrazu przez użytkownika. Kompromisem jest natomiast zmniejszona jakość obrazu. Niniejsze badania mają za zadanie zrozumienie i określenie efektów zaistniałych wskutek kompresji oraz interpolacji, które nieodwracalnie wpływają na jakość obrazów medycznych i mogą być zagrożeniem do prawidłowej diagnozy. Istotnym elementem badań jest zrozumienie efektów manipulacji obrazami wówczas, gdy obraz poddany jest kilku nieodwracalnym operacjom. W niniejszej pracy proponowany jest obiektywny miernik jakości obrazów medycznych, który oparty jest na deterministycznych i statystycznych właściwościach obrazów. Cechy statystyczne pochodzą z dziedziny częstotliwości Fouriera i są połączone z miernikiem Structural Similarity Index (SSIM). Proponowany model może być przydatny w ustaleniu wizualnych progów dla jakości obrazów medycznych, które są niezbędne do prawidłowej diagnozy medycznej.
PL
Omówiono zasady szacowania niepewności punktów funkcji opisującej charakterystykę na podstawie wyników pomiarów w dwu punktach kontrolnych. Niepewności typu B o rozkładzie równomiernym szacuje się na podstawie wartości dopuszczalnych maksymalnych błędów przyrządu przyjmując współczynnik korelacji równy 1 dla pomiarów tym samym przyrządem oraz 0 dla różnych przyrządów. Niepewności typu A pomiarów w punktach kontrolnych szacuje się metodą statystyczną. Przy pomiarach tych przeprowadzonych synchronicznie estymuje się też współczynnik korelacji. Następnie metodą Monte Carlo estymuje się niepewności składowe, złożone i rozszerzone oraz korelację punktów funkcji opisującej badaną charakterystykę.
EN
The idea of estimation the uncertainty of function points describing the characteristics on the basis of measurement results at two control points was discussed. The uncertainties type B are estimated as for data with uniform distribution based on the permissible maximum errors of instrument, assuming a correlation coefficient of 1 for the measurements by same instrument and 0 by different. The uncertainties type A are estimated by the statistical method as for data with normal distribution. For synchronous control measurements, a correlation coefficient is also estimated. On this basis, component, complex and extended uncertainties and correlation coefficient are estimated for other points of the function describing the examined characteristic of tested object, using the Monte Carlo method.
EN
Spatial information systems are already widely used and are commonly applied in crisis management. The aim of the study was to develop a method for mapping hazards as a tool supporting crisis management processes and decision making processes for the purposes of security and activities of the Fire Service, and the organisation of the National Rescue and Fire System. As part of the study, formulas determining the scale of danger of each event, and a danger scale factor were developed. Hazard maps were compiled using various methods of cartographic presentation, including interpolation, chorogram, and hotspot. The data used was information from the National Fire Service, from an area accepted as representative. The suggested solution proposes a new meth od for spatial analysis which takes into account not only the number of events as such, but also the weight of hazards they generate, the specified scale of dangers. The conducted study indicates that the hazard map compiled using this method show more spatial relationships than raw statistical data, which enables a better analysis of the studied phenomenon. The end result of the study is the development of algorithms enabling the compilation of a hazard map which takes into account not only the very fact of the occurrence of a hazard but also its weight.
PL
Systemy informacji przestrzennej są obecnie powszechnie wykorzystywane i znajdują szerokie zastosowanie w zarządzaniu kryzysowym jako narzędzie wspierające procesy decyzyjne. Narzędzia geoinformacyjne umożliwiają identyfikację przestrzenną zagrożeń, modelowanie danych przestrzennych, opracowywanie scenariuszy stanów przyszłych zagrożeń oraz opracowywanie planów zapobiegania wystąpienia kryzysu i jego skutków. Mapy zagrożeń są narzędziem wykorzystywanym do wspierania procesów decyzyjnych w przypadku zagrożenia. Celem pracy było opracowanie metody, która pozwoli na kartowanie map zagrożeń jako narzędzia wspierającego procesy zarządzania kryzysowego oraz procesy decyzyjne dotyczące bezpieczeństwa i działań zarówno Straży Pożarnej, jak również krajowego systemu ratowniczo gaśniczego (KSRG). W ramach badań opracowano wzory określające skalę niebezpieczeństwa każdego ze zdarzeń oraz współczynnik skali niebezpieczeństwa. Opracowano mapy zagrożeń z wykorzystaniem różnych metod prezentacji kartograficznej, w tym: interpolacji, kartogramu, hotspot. Jako dane wykorzystano informacje z PSP z obszaru przyjętego jako reprezentatywny. Zebrane dane charakteryzowały się brakiem jednorodności zapisu i zróżnicowaną jakością. Skutkowało to potrzebą ich unifikacji i dodatkowej oceny. Efektem końcowym badań są algorytmy pozwalające na kartowanie map zagrożeń, uwzględniających nie tylko sam fakt wystąpienia zagrożenia, ale również jego wagę oraz skalę niebezpieczeństwa. Wykonane badania wykazują, że opracowane tą metodą mapy zagrożeń obrazują więcej zależności przestrzennych niż surowe dane statystyczne, co pozwala na lepszą analizę badanego zjawiska.
EN
We establish a duality for two lactorization questions, one for general positive definite (p.d.) kernels K, and the other for Gaussian processes, say V. The latter notion, for Gaussian processes is stated via Ito-integration. Our approach to factorization for p.d. kernels is intuitively motivated by matrix factorizations, but in infinite dimensions, subtle measure theoretic issues must be addressed. Consider a given p.d. kernel K, presented as a covariance kernel for a Gaussian process V. We then give an explicit duality for these two seemingly different notions of factorization, for p.d. kernel K, vs for Gaussian process V. Our result is in the form of an explicit correspondence. It states that the analytic data which determine the variety of factorizations for K is the exact same as that which yield factorizations for V. Examples and applications are included: point-processes, sampling schemes, constructive discretization, graph-Laplacians, and boundary-value problems.
EN
In this paper the problems concern to measurement of the aerodynamic profile of the wind turbine propeller in a flat steel sheet is presented. This profile creates a template for checking the correctness of the propeller profile on a fixed radius. The profile is given by a sequence of points. In order to improve the accuracy of the execution of the profile, it was advisable to calculate additional geometry points. For this purpose, the FERPRF program was used based on Ferguson cubic curves. A multiplied number of points has been introduced into the CHARSDW program, which generates a sequence of sections and arcs entered into the AutoCAD system. The initial profile cutting project created in the system as a .dxf file is entered into the PEPS CAD/CAM system. The PEPS postprocessor creates a machining program in the ISO code for the Robofil 440SLP. The correctness of the aerodynamic profile was measured on a VIS Warsaw coordinate measuring machine, using a rigid probe with a cylindrical tip.
PL
W artykule opisano zagadnienia dotyczące pomiarów profilu aerodynamicznego śmigła turbiny wiatrowej za pomocą szablonu, wykonanego z płaskiej stalowej blachy. Szablon stosuje się do sprawdzania poprawności wykonania profilu śmigła na ustalonym promieniu. Profil zadany jest ciągiem punktów. Dla poprawienia dokładności wykonania profilu obliczono dodatkowe punkty profilu. Do tego celu posłużono się programem FERPRF bazującym na krzywych kubicznych Fergusona. Zwiększoną liczbę punktów wprowadzono do programu CHARSDW, który generuje ciąg odcinków i łuków wprowadzanych do systemu AutoCAD. Utworzony w systemie wstępny projekt wycinania profilu, jako plik .dxf, wprowadza się do systemu PEPS CAD/CAM. Postprocesor systemu PEPS tworzy program obróbki w kodzie ISO dla wycinarki Robofil 440SLP. Poprawność wykonania profilu aerodynamicznego mierzono na współrzędnościowej maszynie pomiarowej VIS Warszawa, metodą skanowania sztywną sondą z końcówką walcową.
EN
In this paper the technology of cutting the aerodynamic profile of the wind turbine propeller with a WEDM wire cutter in a flat steel sheet is presented. This profile creates a template for checking the correctness of the propeller profile on a fixed radius. The profile is given by a sequence of points. The technology of cutting along a given profile is realized by linear and circular interpolation between specified points. In order to improve the accuracy of the execution of the profile, it was advisable to calculate additional geometry points, which were calculated using Ferguson's cubic curves.
PL
W artykule opisano technologię wycinania aerodynamicznego profilu śmigła turbiny wiatrowej wycinarką drutową WEDM w płaskiej stalowej blasze. Profil ten tworzy szablon do sprawdzania poprawności wykonania profilu śmigła na ustalonym promieniu. Zadany jest on ciągiem punktów. Technologia wycinania wzdłuż zadanego profilu realizowana jest przez interpolację liniową i kołową między określonymi punktami. Dla poprawienia dokładności wykonania profilu celowym było obliczenie dodatkowych punktów geometrii, do obliczenia których posłużono się krzywymi kubicznymi Fergusona.
EN
The article present the accuracy of DTM reproduction created by authors program of bicubic spline interpolation on the example of different categories of relief complexity. Correlations are established between the size of regular grid, category of relief complexity and a mean-square error of height finding. The graph is drawn showing the dependence of accuracy of point height finding from DTM, the size of regular grid and category of relief complexity.
PL
Za pomocą stworzonego przez autorów programu do interpolacji splajnami dwusześciennymi (BSI, bicubic spline interpolation) zbadano dokładność odtworzenia terenu w numerycznym modelu terenu (NMT). Analizowano kategorie terenu o różnym stopniu skomplikowania morfologii. Ustalono korelacje między rozmiarem regularnej sieci, kategorią skomplikowania rzeźby powierzchni terenu i średniokwadratowym błędem ustalania wysokości punktu. Wykonano wykres zależności dokładności wyznaczenia wysokości punktów z wykrzystaniem NMT od kroku regularnej siatki i stopnia skomplikowania morfologii terenu.
EN
Reproducing Kernel Hilbert Spaces (RKHS) and their kernel are important tools which have been found to be incredibly useful in many areas like machine learning, complex analysis, probability theory, group representation theory and the theory of integral operator. In the present paper, the space of Coalescence Hidden-variable Fractal Interpolation Functions (CHFIFs) is demonstrated to be an RKHS and its associated kernel is derived. This extends the possibility of using this new kernel function, which is partly self-affine and partly non-self-affine, in diverse fields wherein the structure is not always self-affine.
PL
W artykule tym poruszony został problem wykonywania pomiarów batymetrycznych na płytkich sztucznych zbiornikach śródlądowych położonych na obszarach nizinnych. Jako obszar badań wybrano Zalew Sulejowski położony w Polsce Centralnej. Zbiorniki tego typu charakteryzują się często mocno urozmaiconą linią brzegową o dużej zmienności jej stanu, urozmaiconym dnem powstałym w wyniku szeregu prac hydrotechnicznych oraz dużą eutrofizacją, szczególnie płytszych fragmentów zbiornika. Czynniki te istotnie wpływają na sposób i jakość pomiarów oraz na późniejszą interpretację uzyskanych danych morfometrycznych W tekście przedstawiono sposoby wykonywania tego typu pomiarów batymetrycznych w strefach problemowych, metody weryfikacji i korekty uzyskanych danych, a także metodykę wykreślania obrazu ukształtowania dna, łącznie z przykładem uzupełnienia informacji morfometrycznej w oparciu o inne źródła danych. W wyniku przeprowadzonych prac uzyskano mapę batymetryczną Zbiornika Sulejowskiego w skali 1:25000.
EN
The article deals with the issue of conducting bathymetric measurements in shallow, artificial inland reservoirs found in lowland. The Sulejów Reservoir, located in Central Poland, was selected as the study area. Reservoirs of this type are often characterised by well-developed shoreline and diverse bottom resulting from range of hydrotechnical works and considerable eutrophication, especially in the shallower parts of the reservoir. These factors have significant impact on the method and quality of bathymetric measurements, and by extent on the interpretation of the obtained morphometric data and, consequently, on the choice of methods for the final charting of the bottom. The paper presents a methodology for bottom measurements in problem zones, and methods for the verification and correction of the obtained data. Complementary morphometric data were taken from additional data sources. As result of this research, a bathymetric chart of the Sulejów Reservoir was made at scale of 1:25000.
EN
The acquisition of positron emission tomography (PET) pulses introduces artifacts and limits the performance of the scanner. To minimize these inadequacies, this work focuses on the design of an offset compensated digital baseline restorer (BLR) along with a two-stage hybrid interpolator. They respectively treat the incoming pulse offsets and limited temporal resolution and improve the scanner performance in terms of calculating depth of interactions and line of responses. The offset of incoming PET pulses is compensated by the BLR and then their interesting parts are selected. The selected signal portion is up-sampled with a hybrid interpolator. It is composed of an optimized weighted least-squares interpolator (WLSI) and a simplified linear interpolator. The processes of calibrating the WLSI coefficients and characterizing the BLR and the interpolator modules are described. The functionality of the proposed modules is verified with an experimental setup. Results have shown that the devised BLR effectively compensates a dynamic range of bipolar offsets. The signal selection process allows focusing only on the relevant signal part and avoids the unnecessary operations during the post-interpolation process. Additionally, the hybrid nature allows improving the signal temporal resolution with an appropriate precession at a reduced computational complexity compared to the mono-interpolationbased arithmetically complex counterparts. The component-level architectures of the BLR and the interpolator modules are also described. It promises an efficient integration of these modules in modern PET scanners while using standard and economical analog-to-digital converters and field-programmable gate arrays. It avoids the development of high-performance and expensive application-specific integrated circuits and results in a costeffective realization.
PL
Procesy tworzenia oraz wizualizacji NMT na podstawie danych z lotniczego skaningu laserowego stają się coraz powszechniejsze. Jakość NMT jest uzależniona od wielu czynników. W pracy poddano analizie proces tworzenia NMT w aspekcie zróżnicowania ukształtowania terenu, wielkości siatki GRID oraz metod interpolacji na podstawie danych pozyskanych z projektu ISOK dla fragmentu (1km2) miasta Koszalin. Wykorzystano interpolacje deterministyczne oraz stochastyczną do uzyskania modeli o rozdzielczościach 0.1 m, 0.25 m oraz 0.5 m. Porównano ponadto otrzymane modele ze standardowym NMT pozyskanym z ISOK. Największy wpływ na jakość NMT zbudowanego na podstawie danych LIDAR ma zróżnicowanie terenu. Ponadto w zależności od przeznaczenia modelu sprawdzono, czy zmiana wielkości oczka tworzonego modelu GRID ma wpływ na jakość NMT zwłaszcza w kontekście odwzorowania form morfologicznych rzeźby.
EN
Creating and visualizing DTM based on data from airborne laser scanning become a common practice. Quality of DTM depends on many factors. The paper analyzes the process of creating a DTM in terms of diversity of terrain, the size of grid (the cell size) and methods of interpolation, based on data obtained from the project ISOK for a part (1km2) of the city of Koszalin. Deterministic and stochastic interpolations are used for cellsizes of 0.1 m, 0.25 m and 0.5 m. Moreover, the models were compared with DTM obtained from the ISOK. Diversity of terrain has the biggest impact on the quality of DTM based on LIDAR data. Furthermore, depending on the application of the model, it has been checked if reducing the cellsize of the created model GRID affects the quality of the DTM, especially in the context of mapping morhological forms.
EN
The accuracy of models representing the shape of the land surface is important in environmental studies. Accurate model can be used to detect even small changes in the landform and landuse, as well as to develop a spatial model of water and soil pollution. Due to the fact that environmental studies are carried out on diversified areas in terms of landuse, this study indicated the appropriate methods for generating Digital Terrain Model (DTM) and Digital Surface Model (DSM). Both of them can be used in processes and analyzes research. Those analyzes mainly take into account the formation of the Earth’s surface in the context of hydrological, geomorphological and biological modeling. The example of practical use of hydrological modeling is a ISOK project, which goal is to reduce the danger and minimize losses caused by the floods. The main aim of this study was to select the appropriate method of generating regular models from airborne laser scanning. The data on which analysis was performed, were obtained for the area of Cracow city within the project ISOK. To achieve this goal, four methods available in ArcGIS, were selected: nearest neighbour, inverse distance weighted, triangulation with linear interpolation and triangulation with natural neighbour interpolation. Additionally several different sizes of the cell of regular model were selected: 0.125, 0.25, 0.5, 1, 2.5, 5 m. Each generated model has been studied in terms of a accuracy (Gaussian statistical model was used). Firstly the analysis was made for digital terrain model and digital surface model for one archive module of point cloud. For this stage, 48 models were generated. After that, the area of analysis was expanded. Because of similar results obtained by both triangulations methods in the first stage, only the method of triangulation with linear interpolation was studied. In the second stage of research, 54 models were generated for other archive modules of point cloud. The results of the two stages were compatible. It has been noticed that the nearest neighbour method is the most accurate for generating Digital Surface Models.
PL
Dokładność modeli reprezentujących ukształtowanie powierzchni terenu jest istotna w badaniach środowiska. Poprawnie wykonane modele mogą być wykorzystane do wykrywania nawet niewielkich zmian w ukształtowaniu i zagospodarowaniu terenu, a także do opracowania modelu przestrzennego zanieczyszczeń wód oraz gleby. Ze względu na to, że badania nad środowiskiem prowadzone są na obszarach zróżnicowanych pod kątem zagospodarowania terenu, w niniejszej pracy wskazano odpowiednie metody generowania Numerycznych Modeli Terenu (NMT) i Numerycznych Modeli Pokrycia Terenu (NMPT). Dane, na których wykonano analizy, były pozyskane dla obszaru miasta Kraków w ramach projektu ISOK. Aby osiągnąć założony cel, wybrano cztery metody dostępne w oprogramowaniu ArcGIS: najbliższego sąsiada, wagowanej odwrotnej odległości, triangulacji z metodą interpolacji liniowej i naturalnego sąsiada. Wybrano także kilka różnych rozmiarów oczek siatki modelu (0,125 m, 0,25 m, 0,5 m, 1 m, 2,5 m, 5 m). Każdy wykonany model został poddany analizom dokładnościowym - zastosowano model Gaussa. W pierwszym etapie badań wygenerowano 48 modeli dla arkusza chmury punktów zawierającego zróżnicowane klasy pokrycia terenu. W drugim wykonano dodatkowo 54 modele dla pozostałych badanych arkuszy. Wyniki obu etapów prac były ze sobą zgodne. Stwierdzono, że metoda najbliższego sąsiada jest najbardziej dokładna w przypadku generowania modeli NMPT. Natomiast w przypadku NMT badania nie wskazały jednoznacznie najlepszej metody interpolacji danych wysokościowych terenu.
PL
Badania dotyczą alternatywnego podejścia do oceny jakości metod interpolacji niewielkich i zróżnicowanych zestawów danych. Podstawowa analiza statystyczna oparta na klasycznej walidacji krzyżowej nie zawsze daje jednoznaczne wnioski. W przypadku analizowanego zestawu danych (niezgodnego z rozkładem normalnym) trzy metody interpolacji zostały wybrane jako najlepsze (zgodnie z procedurą klasycznej walidacji krzyżowej). Niemniej jednak mapy powstałe na podstawie tych metod wyraźnie się od siebie różnią. To jest powód, dla którego dogłębna analiza statystyczna była konieczna. Zaproponowano alternatywne podejście do tego zagadnienia, które uwzględnia szersze spektrum parametrów opisujących badany zestaw danych. Głównym założeniem tej metodyki jest porównanie nie tylko odchylenia standardowego estymatora, ale również trzech dodatkowych parametrów. To powoduje, iż końcowa ocena jest znacznie dokładniejsza. Analizę wykonano za pomocą programu Surfer (Golden Software). Zapewnia on możliwość wykorzystania wielu metod interpolacji wraz z różnorakimi, regulowanymi parametrami.
EN
The research concerns an alternative approach to the evaluation of interpolation methods for mapping small and imbalanced data sets. A basic statistical analysis of the standard cross-validation procedure is not always conclusive. In the case of the investigated data set (which is inconsistent with normal distribution), three interpolation methods have been selected as the most reliable (according to standard cross-validation). However, maps resulting from the aforementioned methods clearly differ from each other. This is the reason why a comprehensive statistical analysis of the studied data is a necessity. We propose an alternative approach that evaluates a broadened scope of parameters describing the data distribution. The general idea of the methodology is to compare not only the standard deviation of the estimator but also three additional parameters to make the final assessment much more accurate. The analysis has been carried out with the use of Golden Software Surfer. It provides a wide range of interpolation methods and numerous adjustable parameters.
14
Content available remote New algorithm for first order stiff initial value problems
EN
In this paper, we consider the development and implementation of algorithms for the solution of stiff first order initial value problems. Method of interpolation and collocation of basis function to give system of nonlinear equations which is solved for the unknown parameters to give a continuous scheme that is evaluated at selected grid points to give discrete methods. The stability properties of the method is verified and numerical experiments show that the new method is efficient in handling stiff problems.
PL
W artykule podjęto próbę oceny możliwości wiarygodnego modelowania 3D zawartości ołowiu w porównaniu do wiarygodności modelowania 3D zawartości głównych metali złoża Cu i Ag. Modele 3D zawartości pierwiastków wykonano metodami interpolacyjnymi (kriging zwyczajny w dwóch wariantach i metoda odwrotnej odległości do kwadratu) oraz symulacyjnymi (symulacja Turning Bands). Weryfikacja dokładności oszacowań zawartości metali w modelu 3D, wykonana punktowo na podstawie zbioru testowego, wykazała że możliwe do zaakceptowania w praktyce geologiczno-górniczej są oszacowania zawartości Cu i Ag (mediany błędów oszacowań w rzędu 40%), natomiast wiarygodność modelu Pb jest mała (mediany błędów rzędu 70%). Wynika to z niekorzystnych cech statystycznych zawartości większości pierwiastków towarzyszących (silnie asymetrycznych rozkładów prawdopodobieństwa, bardzo dużej zmienności i występowania licznych wartości anomalnych) oraz ze znacznie rzadszej sieci opróbowań złoża dla oznaczeń pierwiastków towarzyszących niż dla Cu. Generalnie, obliczone mediany błędów interpolacji dla 4 metod nie dają podstaw do wyróżnienia jakiejkolwiek z nich jako zapewniającej w każdym przypadku wyższą dokładność oszacowań zawartości pierwiastków.
EN
The paper attempts to evaluate the possibility of reliable 3D modelling of lead content against the reliability of 3D modelling of Cu and Ag (main metals in the Sieroszowice Cu-Ag deposit) contents. The 3D modelling of the content of these elements was performed using interpolation (ordinary kriging in two variants, and squared inverse distance weighting) and simulation methods (Turning Bands Simulation). The assessment of the accuracy of estimates of metal contents determined from the 3D model, based on both spot samples and a training set, has shown that the estimated contents of Cu and Ag are acceptable for geological and mining applications (medians of estimation errors in the order of 40%), while the reliability of the Pb model is low (medians of estimation errors in the order of 70%). This is due to the unfavourable statistical features of the majority of the accompanying elements and, in particular, the highly asymmetric probability distributions, their high variability, the presence of numerous anomalous values, and the much lower density of the sampling network in the mining excavations when determining accompanying elements other than Cu. In general, the calculated medians of interpolation errors for the four methods do not allow determining the one providing (in each case) higher accuracy when assessing the content of the elements.
PL
W artykule podjęto próbę oceny dokładności trzech odmiennych procedur tworzenia modelu litologicznego 3D złoża z wykorzystaniem: interpolacji metodami deterministycznymi lub geostatystycznymi, ustandaryzowanej metody interpolacji stosowanej w KGHM Polska Miedź S.A. i geostatystycznej symulacji multigaussowskiej (multinormalnej) (ang. Plurigaussian simulation). Wymienione procedury zastosowano do budowy modeli litologicznych 3D wydzieleń podstawowych we fragmencie złoża Cu-Ag Legnicko- -Głogowskiego Okręgu Miedziowego LGOM (ZG Rudna). Dokładność trzech procedur wykorzystanych do budowy modeli litologicznych oceniono ilościowo na podstawie wielkości średnich względnych absolutnych błędów oszacowania miąższości serii litologicznych w modelach 3D. Przyjmują one wartości z zakresu od 6% do 13%. Zbliżone wartości błędów świadczą o porównywalnej skuteczności zastosowanych 3 procedur, pomimo istotnie różniących je algorytmów obliczeniowych i odmiennego sposobu definiowania przestrzeni interpolacyjnej 3D. Nie wykazano również znaczących różnic w poziomie dokładności prognozowania przebiegu granic serii węglanowej, łupkowej i piaskowcowej.
EN
The article attempts to evaluate the effectiveness of three different procedures of 3D lithological model creation with the usage of: deterministic or geostatistical interpolation methods, standard interpolation method used in KGHM Polska Miedź S.A. and Plurigaussian geostatistical simulation. The 3D models of main lithology created using those methods for a part of Cu-Ag Legnica-Głogów Copper District (Rudna mine) served as the basis for the evaluation. The effectiveness of those methods was quantified by means of relative absolute estimation errors of thickness of lithological series in the 3D models. The mean relative estimation errors of thickness of main lithological series in 3D models take values from 6% to 13%. This demonstrates the comparable accuracy of the 3 procedures used, despite the fact that they differ significantly in computational algorithms and in the different way of defining the 3D interpolation space. Moreover, no significant differences in the accuracy level of lithological borders estimation of carbonate series, shale series and sandstone series were stated.
EN
In radioastronomy the interferometric measurement between radiotelescopes located relatively close to each other helps removing ionospheric effects. Unfortunately, in case of networks such as LOw Frequency ARray (LOFAR), due to long baselines (currently up to 1500 km), interferometric methods fail to provide sufficiently accurate ionosphere delay corrections. Practically it means that systems such as LOFAR need external ionosphere information, coming from Global or Regional Ionospheric Maps (GIMs or RIMs, respectively). Thanks to the technology based on Global Navigation Satellite Systems (GNSS), the scientific community is provided with ionosphere sounding virtually worldwide. In this paper we compare several interpolation methods for RIMs computation based on scattered Vertical Total Electron Content measurements located on one thin ionospheric layer (Ionospheric Pierce Points—IPPs). The results of this work show that methods that take into account the topology of the data distribution (e.g., natural neighbour interpolation) perform better than those based on geometric computation only (e.g., distance-weighted methods).
EN
A new seismic interpolation and denoising method with a curvelet transform matching filter, employing the fast iterative shrinkage thresholding algorithm (FISTA), is proposed. The approach treats the matching filter, seismic interpolation, and denoising all as the same inverse problem using an inversion iteration algorithm. The curvelet transform has a high sparseness and is useful for separating signal from noise, meaning that it can accurately solve the matching problem using FISTA. When applying the new method to a synthetic noisy data sets and a data sets with missing traces, the optimum matching result is obtained, noise is greatly suppressed, missing seismic data are filled by interpolation, and the waveform is highly consistent. We then verified the method by applying it to real data, yielding satisfactory results. The results show that the method can reconstruct missing traces in the case of low SNR (signal-to-noise ratio). The above three problems can be simultaneously solved via FISTA algorithm, and it will not only increase the processing efficiency but also improve SNR of the seismic data.
PL
W artykule przedstawiono doświadczenia związane z modelowaniem we współczesnej informatyce na przykładzie problemu pokrycia terenu ze szczególnym uwzględnieniem rozmieszczania nadajników w sieciach bezprzewodowych. Opisano dostępne algorytmy i heurystyki mające zastosowanie, z opisem ich wad i zalet. Przedstawiono aktualne problemy związane z uzyskiwaniem wyników wysokiej jakości. Wskazano sposoby redukcji obliczeń wpływające na zmniejszenie stopnia skomplikowania obliczeniowego problemów.
EN
In this paper an experience connected with modeling in modern information technology illustrated with an example of problem of covering an area, taking into special consideration the location of transmitters in wireless network was presented. Available algorithms and heuristics having theirs implementation with indicating their advantages and disadvantages were described. Current problems connected with obtaining the high quality results were also shown. The ways of reduction of calculations affecting diminution of the stage of counting complexity of problems were pointed.
PL
Praca dotyczy zagadnienia identyfikacji danych głębi z danymi intensywności w zastosowaniu do zadania jednoczesnej samolokalizacji i budowy mapy otoczenia (ang. Simultaneous Localization and Mapping – SLAM). Integracja danych przeprowadzona została dla czujnika głębi o rozdzielczości obrazu znacząco mniejszej od rozdzielczości obrazu RGB. W artykule sprawdzono dwie metody zwiększania rozdzielczości. Jedna z nich wykorzystuje interpolację biliniową obrazu głębi podczas jego przeskalowywania, a druga opiera się na fuzji danych głębi oraz intensywności. Przetestowano jakość działanie obu metod podwyższania rozdzielczości w zadaniu SLAM. Porównanie podejść nastąpiło na podstawie eksperymentu, w którym zebrano dane z dwóch czujników głębi wraz z kamerą RGB oraz zarejestrowano trajektorię przemieszczenia czujników.
EN
In this paper the method of combining depth data with intensity images in the Simultaneous Localization and Mapping (SLAM) task is described. Data integration was performed for the depth sensor with substantially lower resolution than the RGB image. In this paper two methods of upsampling were tested. First one is using pure interpolation during upsampling, and the second one is based on data fusion guided by RGB image. The quality of selected methods was examined in a SLAM task. The comparison of these two methods was done experimentally, where data from depth and RGB sensors were gathered and the trajectory of the sensor movement was recorded.
first rewind previous Strona / 5 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.