The objective of the paper is to review the state of the art of analytical methods of integration of photogrammetric and laser scanning data which is an important scientific and practical issue. Basing on the conclusions included in previous studies, it can be observed that the analytical integration of photogrammetric and laser scanning data is an interesting area of research, especially in case of absolute orientation of images and point clouds in a sequential or one-stage adjustment process. The results of the state-of-the-art analysis are shown according to four division criteria: method of registration, workflow stage, data capture technology and calculation order. After presenting all aspects of the problem, the author proposes the two-step classification of variants of data analytical integration based on order of orientation calculation and methods of registration.
Publikacja omawia nowatorskie metody rozwiązania ważnego technologicznie zagadnienia, jakim jest klasyfikacji punktów overlap, czyli punktów w pasie podwójnego pokrycia pomiędzy sąsiednimi szeregami skanowania. Prezentowane podejście oparte jest na wydajnej metodzie obliczeń równoległych na procesorach graficznych GPU, pozwalającej na zastosowanie bardziej zaawansowanego algorytmu podczas analizy i przetwarzania danych. Celem sprawdzenia wydajności przeprowadzono testy badanego narzędzia do klasyfikacji punktów overlap, a wyniki odniesiono do możliwości powszechnie stosowanego programu Terrascan firmy Terrasolid. Proponowane innowacje obliczeniowe mają na celu poprawę jakości danych skaningowych pozyskiwanych przy pomocy latających platform takich jak lekkie samoloty czy wiatrakowce. Podniesienie jakości procesu klasyfikacji punktów typu overlap, wymaga dwóch wstępnych etapów przetwarzania. Pierwszy polega na obcięciu brzegów szeregu ściśle według zadanego kąta od pionu. Zastosowane podejście daje bardziej regularne wyniki niż inne metody. Z kolei drugi, oparty o algorytm rozgęszczenia punktów, prowadzi do usuwania nadmiarowych profili skanowania. Proponowane rozwiązanie to klasyfikacja punktów overlap według kąta padania promienia skanera na teren i obiekty terenowe. Reasumując, w ramach opisanych badań dotychczas stosowane metody klasyfikacji punktów overlap zostały poddane rewizji. Korzystając z praktycznych uwag oraz sugestii ze strony wykonawców, wprowadzono szereg udoskonaleń, których prezentacja i dyskusja jest przedmiotem niniejszej publikacji.
EN
The paper presents innovative methods of solving important technological problem: the classification of LiDAR points located in the overlapping area between two parallel scan strips. The presented approach is based on an efficient method of parallel computation using graphic processors, allowing to apply more sophisticated algorithms for data analysis and processing. The tests of the algorithms were executed in order to verify correctness of the assumption that the innovative solutions presented in the paper might increase the efficiency and correctness of the data, referred to well known and popular technological solutions. The suggested computational innovations are applied to increase the quality of the LiDAR data acquired by light airplanes and gyrocopters. Two approaches to increase the quality of classification of overlapping points have bee, proposed. The first process is cutting-off the points of the strip borders strictly according to defined angle measured from vertical direction. The second process is dissolving of the points to get the regular density of the result point cloud. The title issue is the classification of overlapping points according to the angle of incidence to the terrain and other objects. The normal vectors calculation for each of the scan points is necessary for the analysis. Such solution increases the quality of overlaps classification and guarantees its high efficiency thanks to the parallel computation. In conclusion, during the research three innovative approaches were tested and reviewed against commonly used methods. Parallel computation can improve quality and reduce time of processing for overlap classification problem was confirmed.
This publication aim is discussing the issue of lidarometry – a stereoscopic point cloud display for measurement purposes. The authors state that lidarometry constitutes a valuable variant of integration for photogrammetric and scanning data. A point cloud in lidarometry may be subject to stereoscopic observation and measurement to perform vectorization identically as in photogrammetry. Apart from 3D point cloud display enabled by several programmes in the world, the authors describe the method of synthetic stereograms generation using the artificial image pair sampling, Such solution presents an additional aspect of scanning and photogrammetric data integration and enables thorough analysis of the method. In this publication, the authors describe the genesis and variants of lidarometry. The authors determine the relation of lidarometric measurements accuracy to conventional stereophotogrammetric measurement accuracy. They also provide the optimum point cloud resolution for stereo measurements to terrain pixels size of the measured photograms.
The paper presents an innovative data classification approach based on parallel computing performed on a GPGPU (General-Purpose Graphics Processing Unit). The results shown in this paper were obtained in the course of a European Commission-funded project: “Research on large-scale storage, sharing and processing of spatial laser data”, which concentrated on LIDAR data storage and sharing via databases and the application of parallel computing using nVidia CUDA technology. The paper describes the general requirements of nVidia CUDA technology application in massive LiDAR data processing. The studied point cloud data structure fulfills these requirements in most potential cases. A unique organization of the processing procedure is necessary. An innovative approach based on rapid parallel computing and analysis of each point’s normal vector to examine point cloud geometry within a classification process is described in this paper. The presented algorithm called LiMON classifies points into basic classes defined in LAS format: ground, buildings, vegetation, low points. The specific stages of the classification process are presented. The efficiency and correctness of LiMON were compared with popular program called Terrascan. The correctness of the results was tested in quantitive and qualitative ways. The test of quality was executed on specific objects, that are usually difficult for classification algorithms. The quantitive test used various environment types: forest, agricultural area, village, town. Reference clouds were obtained via two different methods: (1) automatic classification using Terrascan, (2) manually corrected clouds classified by Terrascan. The following coefficients for quantitive testing of classification correctness were calculated: Type 1 Error, Type 2 Error, Kappa, Total Error. The results shown in the paper present the use of parallel computing on a GPGPU as an attractive route for point cloud data processing.
The paper discusses a testing method for a point cloud colorization algorithm. The point cloud colorization process is described in the context of photogrammetric and laser scanning data integration. A parallel algorithm is described following a theoretical introduction to the problem of LiDAR data colorization. The paper consists of two main parts. The first part presents the testing methodology via two aspects: (1) correctness of the color assigned to a given point, (2) testing of interpolation methods. Both tests are used on synthetic and natural data, and the results are discussed. The second part consists of a discussion of correctness factors associated with point cloud colorization as a typical case of process correctness in data integration. Three important factors are discussed in the paper. The first is correctness of the external orientation of the given image. The second is the ratio of the density of the point cloud and the GSD of the image. The third is the relative angle between the image and the scanned plane. All of the results are presented in the paper and the optimal range of the relevant factors is also discussed.
PL
Publikacja omawia opracowanie metody oceny poprawności działania algorytmu służącego do przypisania składowych RGB punktom chmury pochodzącej ze skaningu laserowego. Metoda testowania tego algorytmu jest przedstawiona w kontekście problemu kontroli merytorycznej algorytmów do przetwarzania danych przestrzennych. Proces kolorowania traktowany jest jako jeden z przypadków integracji danych skaningowych i fotogrametrycznych. W ramach wprowadzenia teoretycznego autorzy omawiają problemy badawcze, które wynikają z potrzeby sprawdzenia poprawności oraz dokładności procesu kolorowania. Podane są kryteria, według których można określić, czy badany algorytm jest poprawny pod względem merytorycznym: czy kolorowane są odpowiednie piksele i czy metody interpolacji są zastosowane prawidłowo. Następnie określony jest wpływ dokładności elementów orientacji zewnętrznej oraz rozmiaru piksela terenowego zdjęć na poprawne kolorowanie. Na koniec omówiono problem nierównoległości płaszczyzny tłowej do powierzchni chmury punktów, co też może mieć wpływ na jakość kolorowania. Po rozważaniach teoretycznych opisane zostały metody testowania poprawności przyporządkowania punktom koloru oraz poprawności implementacji algorytmów interpolacji. Obie metody zastosowane są na danych syntetycznych oraz na rzeczywistych danych pomiarowych. Następnie dyskutowane są inne czynniki, niezależne od poprawności algorytmu kolorowania, wpływające na dokładność kolorowania chmury punktów. Pierwszy czynnik to dokładność elementów orientacji zewnętrznej fotogramu, który służy do kolorowania. Kolejnym czynnikiem jest różnica pomiędzy rozdzielczością terenową fotogramu i kolorowanej chmury punktów. Trzecim czynnikiem jest kąt pomiędzy kolorowana powierzchnią chmury punktów a płaszczyzną tłową fotogramu. Badanie algorytmu zostaje rozszerzone o podanie ogólnych zasad dotyczących parametrów technicznych danych integrowanych w ramach omawianego procesu w zakresie powyższych trzech czynników. Badanym, przykładowym algorytmem jest CuScanColorizer - innowacyjny algorytm firmy DEPHOS Software, który wykonuje kolorowanie chmury punktów, wykorzystując do tego metodę przetwarzania równoległego na procesorach graficznych opartą na technologii nVidia CUDA. W podsumowaniu podane są wyniki zastosowania metody kontroli poprawności algorytmu wraz z oceną przykładowego, badanego algorytmu oraz wskazaniem parametrów optymalnych z punktu widzenia stosowania procesu kolorowania chmury. Jako dodatkową konkluzję zawarto ocenę poprawności algorytmu CuScanColorizer.
The paper addresses the problem of the automatic distortion removal from images acquired with non-metric SLR camera equipped with prime lenses. From the photogrammetric point of view the following question arises: is the accuracy of distortion control data provided by the manufacturer for a certain lens model (not item) sufficient in order to achieve demanded accuracy? In order to obtain the reliable answer to the aforementioned problem the two kinds of tests were carried out for three lens models. Firstly the multi-variant camera calibration was conducted using the software providing full accuracy analysis. Secondly the accuracy analysis using check points took place. The check points were measured in the images resampled based on estimated distortion model or in distortion-free images simply acquired in the automatic distortion removal mode. The extensive conclusions regarding application of each calibration approach in practice are given. Finally the rules of applying automatic distortion removal in photogrammetric measurements are suggested.
PL
Publikacja ma na celu przedstawienie wyników automatycznego usuwania dystorsji dla niemetrycznej kamery z obiektywem stałoogniskowym. Z punktu widzenia fotogrametrii pojawia się zasadnicze pytanie, czy dokładność określenia dystorsji dla danego typu obiektywu (a nie egzemplarza) jest wystarczająca, żeby otrzymać oczekiwane dokładności pomiaru fotogrametrycznego. W tym celu wykonano dwa rodzaje obliczeń kontrolnych. Pierwsze obliczenia to kalibracja kamery w wariantach zapewniających szeroką dyskusję wyników, wykonana w oprogramowaniu zapewniającym podanie pełnej analizy dokładności. Dodatkowo każdy wariant został sprawdzony poprzez kalibrację kontrolną, którą policzono na podstawie pomiaru zdjęć z fizycznie usuniętym wpływem dystorsji. Drugi etap obliczeń – analiza dokładności – polegał na wykonaniu pomiarów sprawdzających punktów kontrolowanych na zdjęciach dla wszystkich 3 zestawów przyjętych lub obliczonych elementów orientacji wewnętrznej oraz dystorsji usuniętej automatycznie lub programem, na podstawie wyników kalibracji. W publikacji zamieszczono obszerny komentarz dotyczący praktycznych aspektów stosowania każdej z tych metod kalibracji. Wniosek ostateczny podaje zasady stosowania wyników automatycznej redukcji dystorsji w zastosowaniach fotogrametrycznych.
The first part of the paper includes a description of the rules used to generate the algorithm needed for the purpose of parallel computing and also discusses the origins of the idea of research on the use of graphics processors in large scale processing of laser scanning data. The next part of the paper includes the results of an efficiency assessment performed for an array of different processing options, all of which were substantially accelerated with parallel computing. The processing options were divided into the generation of orthophotos using point clouds, coloring of point clouds, transformations, and the generation of a regular grid, as well as advanced processes such as the detection of planes and edges, point cloud classification, and the analysis of data for the purpose of quality control. Most algorithms had to be formulated from scratch in the context of the requirements of parallel computing. A few of the algorithms were based on existing technology developed by the Dephos Software Company and then adapted to parallel computing in the course of this research study. Processing time was determined for each process employed for a typical quantity of data processed, which helped confirm the high efficiency of the solutions proposed and the applicability of parallel computing to the processing of laser scanning data. The high efficiency of parallel computing yields new opportunities in the creation and organization of processing methods for laser scanning data.
PL
Publikacja ma na celu przedstawienie części wyników badań, jakie zrealizował zespół badawczy firmy Dephos Software w ramach projektu finansowanego przez UE pt. "Badania nad masowym przechowywaniem, udostępnianiem i przetwarzaniem przestrzennych danych laserowych". Na wstępie publikacji autorzy przedstawiają zasady organizacji algorytmu spełniającego wymogi obliczeń równoległych oraz przybliżają genezę pomysłu prowadzenia badań nad zastosowaniem procesorów graficznych do masowego przetwarzania danych skaningowych. Następnie autorzy prezentują wyniki oceny wydajności działania szeregu różnych procesów przetwarzania danych laserowych, które udało się zasadniczo przyspieszyć dzięki obliczeniom równoległym. Procesy te dzielą się na procesy podstawowe (generowanie ortoobrazów z chmur punktów, kolorowanie chmur punktów, transformacja, generowanie siatki regularnej) oraz procesy zaawansowane (wykrywanie płaszczyzn i krawędzi, klasyfikacja chmur punktów, analiza danych w celu kontroli jakości danych). W większości przypadków algorytmy musiały zostać opracowane całkowicie od nowa pod kątem wymogów przetwarzania równoległego, część korzysta z wcześniejszego dorobku technologicznego firmy Dephos Software, będąc dostosowana do równoległej metody obliczeń w ramach przeprowadzonych badań. W każdym z tych procesów określono czas działania dla typowej ilości danych przetwarzanych, co potwierdziło wysoką wydajność rozwiązań i sens zastosowania obliczeń równoległych w odniesieniu do danych skaningowych. Obliczenia równoległe dzięki swojej wysokiej wydajności otwierają nowe możliwości w tworzeniu i organizacji procesów przetwarzania danych pochodzących ze skaningu laserowego.
This paper presents the results of development of a monitoring system for the technical conditions of historical site. The system was tested in examination of deformations of gables in selected barracks of the former Auschwitz – Birkenau concentration camp. The analysis was performed using the photogrammetric method and data obtained from laser scanning. Recording the condition of buildings at given times together with the analysis and drawn conclusions allowed proper protection of barracks and defining the correlation between damages and external factors such as tremors caused by mining, wind and snow pressure, changes in ground water levels etc.
PL
W niniejszym artykule przedstawiono wyniki opracowania systemu monitoringu stanu technicznego obiektu zabytkowego. System przetestowano przy okazji badania odkształceń oraz deformacji ścian szczytowych wybranych baraków zlokalizowanych na terenie byłego obozu Auschwitz – Birkenau. Analizy wykonano korzystając z metody fotogrametrycznej oraz z danych pozyskanych ze skaningu laserowego. Wobec dużego zróżnicowania wykrytych uszkodzeń podjęto decyzję o zastosowaniu systemu opartego na integracji obszarowej danych fotogrametrycznych oraz skaningowych [8]. Ponieważ rozpoznanie obiektu wskazywało na duże prawdopodobieństwo zachodzenia zmian, konieczne okazało się opracowanie systemu monitorującego stan obiektów w konkretnych obszarach. Czasowa rejestracja stanu obiektu wraz z analizą i wnioskowaniem pozwoliła na dokumentację stanu baraków oraz określenie korelacji pomiędzy powstałymi uszkodzeniami a pojawiającymi się czynnikami zewnętrznymi takimi jak: wstrząsy kopalniane, napór wiatru i śniegu, zmiany poziomów wód gruntowych itp.
The paper presents the state of the art of quality control of photogrammetric and laser scanning data captured by airborne sensors. The described subject is very important for photogrammetric and LiDAR project execution, because the data quality a priori decides about the final product quality. On the other hand, precise and effective quality control process allows to execute the missions without wide margin of safety, especially in case of the mountain areas projects. For introduction, the author presents theoretical background of the quality control, basing on his own experience, instructions and technical documentation. He describes several variants of organization solutions. Basically, there are two main approaches: quality control of the captured data and the control of discrepancies of the flight plan and its results of its execution. Both of them are able to use test of control and analysis of the data. The test is an automatic algorithm controlling the data and generating the control report. Analysis is a less complicated process, that is based on documentation, data and metadata manual check. The example of quality control system for large area project was presented. The project is being realized periodically for the territory of all Spain and named National Plan of Aerial Orthophotography (Plan Nacional de Ortofotografía Aérea, PNOA). The system of the internal control guarantees its results soon after the flight and informs the flight team of the company. It allows to correct all the errors shortly after the flight and it might stop transferring the data to another team or company, for further data processing. The described system of data quality control contains geometrical and radiometrical control of photogrammetric data and geometrical control of LiDAR data. According to all specified parameters, it checks all of them and generates the reports. They are very helpful in case of some errors or low quality data. The paper includes the author experience in the field of data quality control, presents the conclusions and suggestions of the organization and technical aspects, with a short definition of the necessary control software.
PL
Publikacja omawia problematykę organizacji procedury kontroli jakości realizacji nalotów fotogrametrycznych oraz skaningowych na przykładzie wielkoobszarowego projektu PNOA, który realizowany jest cyklicznie dla całego obszaru Królestwa Hiszpanii. Autor omawia zagadnienie kontroli jakości, metody jej prowadzenia, miary oraz ocenę wyników.
10
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
This paper describes the current level of photogrammetric as well as laser scanning technologies used for historic monuments documentation. The digital photogrammetry creates new possibilities at all stages of documentation process: measurement, presentation and storage. Digital recording of common products including: frontal views, horizontal and vertical cross-sections and photomaps offers wider possibilities of use compared to analogue counterparts. Digital technology expanded documentation products choice, now it is possible to develop 3D models of real world object. Besides, intermediate products in the form of oriented digital stereopairs can be made. Digital recording of images allows the use of passive object documentation (it includes only photographs with measured control points). Along with progress of photogrammetric documentation, there is hardware and software development. Improved density of CCD matrices, and loseless, above 8bit image formats brings about increasing usage of digital cameras. There is also significant development of photogrametric digital stations Laser scanning is the most up-to-date technology used in historical monuments documentation. It is based on short interval measurements with the use of laser scanners. Measurement yields dense cloud of points describing the object. Above all, laser scanner can record radiometric information (brightness or colour) in addition to spatial localization. It can be used to produce wide range of products.
Artykuł przedstawia możliwości zastosowania fotogrametrii bliskiego zasięgu i skanowania laserowego 3D, jako zintegrowanego ciągu technologicznego. Jeden z wariantów rozwiązania został przedstawiony na przykładzie pola testowego. Renesansowy nagrobek królowej Anny Jagiellonki z Katedry na Wawelu dostarczył reprezentatywnego materiału. Technologia wymagała opracowania filtrów geometrycznych służących przygotowaniu chmury punktów. Chmury te zastosowano jako informację geometryczną podczas procesu ortorektyfikacji. Uzyskany rezultat potwierdza przypuszczenia autora o istnieniu metod alternatywnych wobec klasycznych opracowań ortofotogramów. Jest to efekt możliwości związanych ze stosowaniem skanerów laserowych.
EN
The paper presents a possibility of usage of close-range photogrammetry and 3D laser scanning as integrated technological process. The approach was shown by solving the test model -considered the representative field material. As a model there was used the monument of Queen Anna Jagiellonka, established in renaissance period in Wawel King's Catedral in Cracow, Poland. Developing of the technology required arranging two geometrical filters for point cloud preparation. Point clouds were used as geometrical information for orthorectification process. The obtained result positively verified author's hypothesis, that the integration of scanning and photogrammetric data is an alternative for classical orthophotogrammetric technology. Such a possibility is an effect of laser scanning technology potential.
Przedmiotem pracy jest ocena jakości radiometrycznej trzech ortofotogramów sporządzonych: metodą klasyczną opartą o dane fotogrametryczne oraz dwiema metodami wykorzystującymi dane 3D z naziemnego skaningu laserowego. Do ilościowego wyrażania powstających w procesie ortorektyfikacji zniekształceń radiometrycznych zastosowano parametry wyliczane na podstawie transformat falkowych obrazów. Parametry falkowe, w szczególności wariancja komponentów falkowych i ich kurtoza (współczynniki skupienia rozkładu) wykazały, że najwyższą jakość radiometryczną, niewiele odbiegającą od jakości fotogramu źródłowego, ma ortofotogram uzyskany metodą klasyczną. Niższą, ale akceptowalną jakość ma ortofotogram otrzymamy metodą, w której zastosowano dane 3D z pomiaru laserowego w roli numerycznego modelu powierzchni. Najniższą jakość radiometryczną wykazano dla ortofotogramu powstałego na drodze rzutowania chmury punktów (w pracy scharakteryzowano istotę tej eksperymentalnej metody). Przeprowadzone badania udowodniły techniczną możliwość integracji danych fotogrametrycznych z pomiarami uzyskanymi ze skanowania laserowego. Dane 3D z lasera stanowią atrakcyjną alternatywę dla pomiaru stereoskopowego na zdjęciach. Bardzo interesująca jest metoda rzutowania chmury punktów, lecz wymaga ona pewnych udoskonaleń zasugerowanych w podsumowaniu pracy.
EN
This paper evaluated the radiometric quality of orthophotograms generated by three different methods: the classical method based on photogrammetric data and two methods based on laser scanning data. Parameters based on image wave transforms were used in order to quantitatively express the radiometric distortions of the orthorectification process. These parameters were shortly characterized in the background of the properties of wave transformation. For this study, orthophotograms of the monument of Queen Anna Jagiellonka (Wawel Castle Cathedral) were generated. Terrain works included: measurement of the control points, taking photos and laser scanning. In the computer laboratory, the orthophotograms were generated by three methods – the classical photogrammetric method and two based on laser scanning data. The first of these new (laser) methods used a point cloud as a digital surface model for orthorectification of the photos. In the second method, the use of laser scanning is even more essential. The cloud of points was projected orthogonally on the plane of orthophotogram. The photos were used only for adding color attributes to the particular points of the cloud. The analysis of the radiometric quality was comparative – the wavelets parameters of orthophotograms were balanced with parameters of the basic, non-rectified photogram. The results of the radiometric distortion investigation are discussed in the paper. The variability of parameters for each for each of the orthorectification products is presented in diagrams. Wavelet parameters, especially variance of wavelets components and their kurtosis (distribution concentration ratio) showed that the classical orthophotogram has the highest radiometric quality. The orthophotogram generated by laser scanning data as a digital surface model had a lower, but also acceptable quality. The wavelet parameters of the orthophotogram created as an orthogonal projection of a color point cloud gave the biggest differences compared with the parameters of the original photo. They are of the lowest radiometric quality. The paper showed the technical possibility of integration of photogrammetric and laser scanning data. 3D scanning data are an attractive alternative for stereoscopic measurements of the photo pares. The third method is the most interesting, but it demands some innovations, including more effective smoothing of the point cloud.
Artykuł omawia doświadczenia firmy Dephos w zakresie inwentaryzacji architektonicznej i malarskiej na przykładzie kościoła parafialnego w Michalicach na Opolszczyźnie. Przedstawia technologie fotogrametryczną oraz skanowanie laserowe jako sprawdzone narzędzie kompleksowej rejestracji geometrii oraz koloru. Zawiera opis możliwości tych technologii oraz ich przydatność. Omówiono etapy oraz efekty prac pomiarowych.
W artykule przedstawiono metodę dokumentowania szczegółów architektonicznych opartą o wykonane automatycznie pomiary przestrzeni 3D tachimetrami zmotoryzowanymi lub skanerami laserowymi. Omówiono zalety i wady metody w porównaniu z dokumentacją wykonywaną metoda fotogrametryczną. Na dwóch przykładach pokazano możliwości interpretacji i prezentacji wyników.
EN
In the paper a method of architecture details documentation based on measured of 3d space by motorized tachymeters or laser scanner is described. Advantages and weaknesses of the method are discussed in comparison to close range photogrammetric method. Possibilities of result interpretation and presentation are shown on two samples.
15
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Artykuł przedstawia problem dynamicznej prezentacji wyników inwentaryzacji zabytków architektury i malarstwa. Opisana technologia została zastosowana przy generowaniu multimedialnego pokazu - fly through -przelotu wokoło i przez wnętrze fragmentu barokowego klasztoru OO. Cystersów w Lubiążu. W tekście znajdują się podstawowe informacje o obiekcie, etapach technologicznych, zastosowanym oprogramowaniu oraz komentarz do wyników
EN
The paper concerns the problem of dynamic presentation of results of architecture and painting documentation. Described technology was applied to generate multimedial file - fly through - a film of exterior and interior of the part of barocco monastery of Cistercians at Lubiąż. The text contain basic information of the object, technology steps, applied software and discussion of obtained results
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.