Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 18

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  image matching
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Landslide monitoring is applied in case of a hazard for existing infrastructure located on hazardous landslide. It is the exact case of the Kasinka Mala landslide in the Outher Carpathians which causes a danger for the surrounding infrastructure. In order to measure the terrain deformations caused by landslide movements, the unnamed aerial vehicle equipped with a non-metric camera has been used. As a result of processing of aerial photos, orthophotomaps as well as digital elevation models have been produced. It enabled providing information about vertical and horizontal displacements caused by the landslide. The results of analysis shows that the mass movements occur at a different pace, but also that there are stable areas in the landslide. The application of UAV photogrammetry for landslide monitoring allows getting the information about the displacements in the unvegetated areas.
PL
Celem niniejszego artykułu było ukazanie możliwości tworzenia numerycznych modeli wysokościowych na podstawie pary satelitarnych zdjęć stereoskopowych. Zdjęcia obejmowały obszar centralnej Warszawy. Wyniki skontrolowano z modelem powstałym na podstawie lotniczego skanowania laserowego (LIDAR). Stereopara pochodziła z satelity o bardzo dużej rozdzielczości Pleiades, zaś dane LIDAR zostały pozyskane w ramach projektu ISOK. W eksperymencie analizowano wpływ parametrów gęstego dopasowania obrazów, liczby fotopunktów niezbędnej do poprawnej georeferencji scen satelitarnych wstępnie orientowanych współczynnikami RPC, oceniono dokładność względem modelu wysokościowego LIDAR z uwzględnieniem eliminacji błędów grubych oraz spowodowanych martwymi polami. Prace przeprowadzono w oprogramowaniu Trimble Inpho. Uzyskane wyniki potwierdziły możliwość zastosowania wyłącznie 2-3 fotopunktów na obszarze opracowania, aby uzyskać zadowalające wyniki orientacji, a dalej tworzonego modelu wysokościowego. W analizie dokładności modelu wysokościowego uzyskano wyniki na poziomie pojedynczego piksela. Dla terenów odkrytych przy 214 fotopunktach kontrolnych z danych LIDAR błąd wysokościowy RMS wyniósł 50 cm.
EN
The aim of this work was to show the possibility of generating digital surface models on the basis of satellite stereo-pair. Test area of experiment was the central part of Warsaw. The results were compared with a DSM based on the airborne laser scanning (LIDAR). The stereo-pair was collected with very high resolution satellite system Pleiades and LIDAR data was acquired within the ISOK project. In the experiment: the influence of dense image matching the parameters was analysed, impact of control points on the correctness of scenes georeferencing pre-orientated with RPC coefficients was verified, the accuracy of DSM was assessed including outliers resulted in lower spatial resolution of satellite imagery and occluded areas. The experiment was processed in the Trimble Inpho software. The results confirmed the possibility of applying only 2-3 control points in order to obtain satisfactory results of scenes orientation and consequently DSM accuracy. In the analysis of elevation models their accuracy at the level of a single ground sample distance was achieved. For uncovered areas in case of 214 LIDAR-based control points vertical RMS was 50 cm.
EN
Side scan sonar measurement platform, affected by underwater environment and its own motion precision, inevitably has posture and motion disturbance, which greatly affects accuracy of geomorphic image formation. It is difficult to sensitively and accurately capture these underwater disturbances by relying on auxiliary navigation devices. In this paper, we propose a method to invert motion and posture information of the measurement platform by using the matching relation between the strip images. The inversion algorithm is the key link in the image mosaic frame of side scan sonar, and the acquired motion posture information can effectively improve seabed topography and plotting accuracy and stability. In this paper, we first analyze influence of platform motion and posture on side scan sonar mapping, and establish the correlation model between motion, posture information and strip image matching information. Then, based on the model, a reverse neural network is established. Based on input, output of neural network, design of and test data set, a motion posture inversion mechanism based on strip image matching information is established. Accuracy and validity of the algorithm are verified by the experimental results.
EN
The usage of real-valued, local descriptors in computer vision applications is ofen constrained by their large memory requirements and long matching time. Typical approaches to the reduction of their vectors map the descriptor space to the Hamming space in which the obtained binary strings can be efficiently stored and compared. In contrary to such techniques, the approach proposed in this paper does not require a data-driven binarisation process, but can be seen as an extension of the floating-point descriptor computation pipeline with a step that allows turning it into a binary descriptor. In this step, binary tests are performed on values determined for pixel blocks from the described image patch. In the paper, the proposed approach is described and applied to two popular real-valued descriptors, SIFT and SURF. The paper also contains a comparison of the approach with state-of-the-art binarisation techniques and popular binary descriptors. The results demonstrate that the proposed representation for real-valued descriptors outperforms other methods on four demanding benchmark image datasets.
EN
Steel-ground structures are more susceptible than other bridges to the forces associated with their operation. Among the most difficult forces to measure and interpret are those which cause the occurrence of rapid movements. Electronic sensors are normally used for the evaluation of such movements, such as accelerators, distance meters, LVGT etc. Classical surveying methods make it possible to carry out precise displacement surveys using a "tracking" mode, several times per second, and these can therefore be used to study movements at a frequency of 1 Hz for a range of displacements of at least 1 mm. A higher frequency of registration, while simultaneously increasing the number of measured points, is possible using a photogrammetric method. In the classical sense, photogrammetry is a technique for determining specific geometric features based on measurements of points on images of an object and their mathematical processing. Currently, images are made using widely available high-resolution digital cameras, allowing images to be captured at the desired distance, with good image stabilization and short exposure time. In this paper, we present investigations using a method of measuring these rapid movements with one or more cameras and a variable number of lighting targets. This method includes the installation of lighting for the object, stabilization of the cameras, image capturing and automatic processing. Each measurement is performed using image-matching algorithms and refers to several (at least two) fixed points in the object space. This method was tested on following real objects: (1) a railway bridge during the passage of a number of trains at different speeds; and (2) a rotating footbridge. Objects were photographed using a PointGrey Black Fly camera from a distance of less than 50 m and with a frequency of 50 Hz. The results are presented in the form of two-dimensional displacement vectors of four points with a precision of ±0.5 mm. The course of the measurement and the evaluation of the results indicate the high potential of the method in studying the dynamics of flexible structures. In conclusion, it was stated that the described solution is a concept and is to serve as an inspiration for particular applications. It is now the subject of further development.
PL
Lotnicze zdjęcia ukośne stają się coraz popularniejszym źródłem danych fotogrametrycznych, a liczba zamawiających je miast rośnie również w Polsce. Tego typu zobrazowania dostarczają znacznie więcej informacji niż typowe zdjęcia pionowe, ponadto wielu użytkowników postrzega je jako „bardziej naturalne”. Rosnące zainteresowanie takimi danymi widoczne jest również na poziomie urzędów centralnych odpowiedzialnych za tworzenie opracowań kartograficznych w wielu państwach europejskich. Zdjęcia ukośne przez lata postrzegane były jako dane uzupełniające do lotniczego skaningu laserowego (ALS), uzupełnianie to ograniczało się w wielu wypadkach jedynie do wykorzystania zdjęć jako źródła tekstur dla modeli 3D powstających z danych ALS. Innym popularnym obszarem zastosowań było tworzenie przeglądarek zdjęć ukośnych, które w połączniu z Numerycznym Modelem Terenu pozwały na uproszczony pomiary wysokości obiektów na pojedynczym zdjęciu. Sytuacja ta zmienia się w ostatnich latach, gdy wraz z rozwojem technologii fotogrametrycznych możliwa stała się dokładna orientacja zdjęć ukośnych z wykorzystaniem automatycznej aerotriangulacji, a algorytmy służące do gęstego dopasowania obrazów przystosowane zostały do pracy z takimi danymi. Niniejszy artykuł z zawiera przegląd opublikowanych w ostatnich latach wyników orientacji bloków zdjęć ukośnych, w szczególności porównano wyniki testów dotyczących metod orientacji zdjęć ukośnych przeprowadzonych przez EuroSDR i ISPRS z wynikami badań prowadzonymi na innych polach testowych. Przeprowadzone badania eksperymentalne skupione były na dwóch głównych aspektach, pierwszym była ocena dokładności odwzorowania geometrii fasad budynków z wykorzystaniem gęstego dopasowania obrazów w przypadku bloku zdjęć ukośnych, w którym ze względu na małe pokrycia fasada odfotografowana jest jedynie na pojedynczym modelu. Drugim z poruszonych tematów badań była próba wykorzystania zdjęć ukośnych do wykrywania zmian w obrębie fasad budynków co nie jest możliwe z wykorzystaniem innych danych pozyskiwanych z pułapu lotniczego.
EN
Oblique aerial images are becoming an increasingly popular source of photogrammetric data, and they are being acquired by more and more municipalities in Poland also. This type of imagery can provide much more information than typical vertical photographs, and many users actually see them as "more natural." The growing interest in such data is becoming apparent even at the level of national mapping agencies responsible for the development of cartographic materials in many European countries. For years, oblique photographs were perceived as supplementary data for aerial laser scanning (ALS). Often, their supplementary role was limited to providing a source of textures for 3D models developed from ALS data. They were also commonly applied in dedicated oblique images viewers, which in conjunction with a Digital Terrain Model enabled simplified height measurements of features on a single photograph. With the advancement of photogrammetric technologies in recent years, the situation has been changing, and it has become possible to accurately orientate oblique images using automatic aerotriangulation and to apply adapted dense image matching (DIM) algorithms to work with this kind of data. This paper overviews the results of orientation of blocks of oblique photographs that have been published in recent years, focusing in particular on benchmarking results obtained by EuroSDR and ISPRS for methods of orientating oblique images. The purpose of the performed experimental tests was to determine the capacity for mapping the geometry of building façades using dense image matching and for detecting changes in urban space using oblique photographs with respect to façades. The research was focused on two main issues, the first one concerning the assessment of accuracy and the second an attempt to apply oblique photographs to the detection of changes in building façades, which is not possible using any other aerial photogrammetric data.
EN
The presented paper shows the diversity of photogrommetric approaches by introducing a problem of camera interior orientation, data georeferencing. data integration and the issue of automatic object surface modelling. The authors discuss the abovementioned issues on the example of the work carried out at the Faculty of Geodesy and Cartography, Warsaw University of Technology referring to solutions practiced in Computer Vision. This article is an example of introduction of photogrammetry as a discipline open to achievements of close fields of science, which is widely applied in practice.
PL
W publikacji przestawiono metodę określania prędkości obiektów (pojazdów) opartą na pomiarach fotogramatrycznych i wykorzystaniu paralaksy czasowej oraz autokorelacji obrazów. Pomiar paralaksy wykonano na wysokorozdzielczych obrazach pozyskanych kamerą niemetryczną. W części wstępnej określono zniekształcenia całego układu rejestrującego za pomocą Funkcji Przenoszenia Modulacji (MTF). Następnie zbudowano przestrzenną sieć lokalną, w której prowadzono testy pojazdu poruszającego się. Na testowanym pojeździe umieszczono znaczki pomiarowe i wykonano pomiary z wykorzystaniem technologii naziemnego skaningu laserowego. W ten sposób zbudowano przestrzenny model mierzonego obiektu (pojazdu testowego). Następnie pojazd wprawiano w ruch i dokonywano jego rejestracji nieruchomą kamerą wykonując zdjęcia. Następnie określano paralaksę czasową na stereogramie (parze zdjęć pomiarowych). Stereogram uzyskano, nie poprzez wprawienie kamery w ruch (obrazy lotniczych i satelitarnych), a poprzez rejestrację obiektów poruszających się w układzie inercjalnym (związanym z kamerą). Umożliwiło to zbudowanie modelu przestrzennego pojazdu w taki sposób, że jego głębia (współrzędna Z) była skorelowana z prędkością pojazdu. Następnie obliczano prędkość pojazdu i błąd jej wyznaczenia. W końcowej części posługując się narzędziami Systemów Informacji Geograficznej (GIS) zbudowano Numeryczny Modelu Terenu (Przestrzenny) na którym, dzięki narzędziom analiz przestrzennych wyznaczono profile prędkościowe trasy.
EN
The publication presents the method of defining of speed vehicles leaning on photogrammetric measurements and utilization of the parallax with time base as well as the image matching. The measurement of parallax with time base was executed on Very High Resolution Images registered with non - metric camera. It the beginning, the whole distortion of applied system, was calculate using Modular Transfer Function (MTF). In the next step the local spatial point network, with define X, Y, Z co-ordinates, was built. In this area the tests of moving vehicles was conducted. The vehicle was marked with special tests (points) and measured with laser scanner. In this way the spatial model of the vehicle was built. Afterwards vehicle was set in motion and register with camera on pictures. Next, the parallax with time base was calculated using stereograms. The Stereogram was got, not across setting in movement the camera (like in aerial photo or satellite image), but across registration of objects moving in inertial datum (alignedtostatic camera).It made possible to build spatial model of vehicle in such a way that its depth was correlated to speed of the vehicle. In the nest step the speed of the vehicle and the mean error were calculated. It in final part using tools of the Geographical Information Systems (GIS) the Digital Elevation Model (DEM) of Terrain (spatial space) was built. On the base of DEM spatial analyses and speed profiles of routes were conducted.
PL
Celem niniejszego opracowania było zbadanie właściwości chmur punktów tworzonych metodą dopasowania obrazów zdjęć lotniczych semi-global matching (SGM) i porównanie ich z chmurami punktów z lotniczego skanowania laserowego. Do badań wykorzystane zostały zdjęcia lotnicze oraz dane z lotniczego skanowania laserowego pozyskane w latach 20102013 na obszarze centrum Elbląga. Na podstawie wejściowego zbioru danych wygenerowano chmury punktów metodą SGM, które poddano następnie analizie. Otrzymane chmury punktów badano poprzez porównanie dokładności wysokościowej względem profilu pomierzonego w terenie, porównanie wizualne profili chmur punktów oraz porównanie wizualne wygenerowanych na podstawie chmur punktów modeli pokrycia terenu. Przeprowadzone badania pozwoliły na sformułowanie szeregu szczegółowych wniosków dotyczących jakości chmur punktów SGM w odniesieniu do różnych czynników. Sformułowane wnioski szczegółowe prowadzą do generalnego spostrzeżenia, że chmury punktów SGM są produktem mniej niezawodnym, bardziej nieprzewidywalnym i zależnym od większej liczby czynników niż chmury punktów LIDAR. Mimo to przy odpowiednich parametrach chmury punktów SGM mogą przewyższać dokładnościowo chmury punktów LIDAR, a także dostarczać bardziej szczegółowej informacji dotyczącej pokrycia terenu. Skłania to do wniosku, że chmury punktów SGM mają potencjał i warto rozwijać tę metodę generowania chmur punktów.
EN
The aim of this study was to investigate the properties of point clouds derived from aerial image matching and to compare them with point clouds from airborne laser scanning. A set of aerial images acquired in years 2010-2013 over the city of Elblag were used for the analysis. Images were acquired with the use of three digital cameras: DMC II 230, DMC I and DigiCAM60 with a GSD varying from 4.5 cm to 15 cm. Eight sets of images that were used in the study were acquired at different stages of the growing season – from March to December. Two LiDAR point clouds were used for the comparison – one with a density of 1.3 p/m2 and a second with a density of 10 p/m2. Based on the input images point clouds were created with the use of the semi-global matching method. The properties of the obtained point clouds were analyzed in three ways: – by the comparison of the vertical accuracy of point clouds with reference to a terrain profile surveyed on bare ground with GPS-RTK method – by visual assessment of point cloud profiles generated both from SGM and LiDAR point clouds – by visual assessment of a digital surface model generated from a SGM point cloud with reference to a digital surface model generated from a LiDAR point cloud. The conducted studies allowed a number of observations about the quality of SGM point clouds to be formulated with respect to different factors. The main factors having influence on the quality of SGM point clouds are GSD and base/height ratio. The essential problem related to SGM point clouds are areas covered with vegetation where SGM point clouds are visibly worse in terms of both accuracy and the representation of terrain surface. It is difficult to expect that in these areas SGM point clouds could replace LiDAR point clouds. This leads to a general conclusion that SGM point clouds are less reliable, more unpredictable and are dependent on more factors than LiDAR point clouds. Nevertheless, SGM point clouds generated with appropriate parameters can have better accuracy than LiDAR point clouds and present more detailed information about the terrain surface.
10
PL
Niniejszy artykuł omawia aktualne możliwości automatyzacji procesu przetwarzania danych obrazowych na przykładzie wykorzystania programu PhotoScan firmy Agisoft. Obecnie dla tworzenia produktów fotogrametrycznych wykorzystuje się dane obrazowe pozyskiwane różnymi systemami rejestracji (kamery pomiarowe, niemetryczne) umieszczonymi na samolotach, satelitach czy coraz częściej na systemach UAV. Wykonuje się wielokrotne rejestracje obiektu (obszaru terenu) w celu wyeliminowania zjawiska martwych pół oraz dla podniesienia finalnej dokładności opracowania fotogrametrycznego - w efekcie tworzone są duże zespoły zdjęć. Geometria tak powstałych zespołów (bloków) zdjęć znacznie odbiega od standardowej konfiguracji zdjęć. Dla szybkiego odtworzenia orientacji zewnętrzne zdjęć w takim bloku wykorzystuje się obecnie automatyczne algorytmy dopasowania obrazów. Mogą one tworzyć model bloku w układzie lokalnym lub zewnętrznym układzie odniesienia wykorzystując dodatkowe dane w postaci pomierzonych środków rzutów oraz punktów osnowy terenowej (fotopunkty). W przypadku opracowania zdjęć niemetrycznych na tym etapie możliwym jest przeprowadzenie procesu samokalibracji. Algorytm dopasowania obrazów jest również wykorzystany w kolejnym kroku do generowania gęstej chmury punktów rekonstruującej kształt przestrzenny obiektu (obszaru). W kolejnych krokach przetwarzania mogą powstać standardowe produkty fotogrametryczne w postaci ortomozaiki, NMT lub NMPT oraz fotorealistycznego modelu bryły obiektu (terenu). szystkie wymienione kroki przetwarzania są realizowane w jednym programie, a nie jak to jest w standardowych oprogramowaniach komercyjnych w wielu modułach programowych. Dla określonego zestawu rejestracyjnego cały proces przetwarzania zdjęć na georeferencyjne produkty finalne może odbywać się w pełni automatycznie (wsadowo) poprzez sekwencyjne realizację ustalonych kroków przetwarzania przy wcześniej ustalonych parametrach sterujących. W artykule prezentowane będą praktyczne rezultaty zastosowania analizowanego programu dla całkowicie automatycznego generowania ortomozaiki zarówno z bloku standardowych zdjęć metrycznych wykonanych kamerą Vexcel jak również bloku zdjęć niemetrycznych pozyskanych systemem UAV.
EN
This article discusses the current capabilities of automate processing of the image data on the example of using PhotoScan software by Agisoft. At present, image data obtained by various registration systems (metric and non-metric cameras) placed on airplanes, satellites, or more often on UAVs is used to create photogrammetric products. Multiple registrations of object or land area (large groups of photos are captured) are usually performed in order to eliminate obscured area as well as to raise the final accuracy of the photogrammetric product. Because of such a situation the geometry of the resulting image blocks is far from the typical configuration of images. For fast images georeferencing automatic image matching algorithms are currently applied. They can create a model of a block in the local coordinate system or using initial exterior orientation and measured control points can provide image georeference in an external reference frame. In the case of non-metric image application, it is also possible to carry out self-calibration process at this stage. Image matching algorithm is also used in generation of dense point clouds reconstructing spatial shape of the object (area). In subsequent processing steps it is possible to obtain typical photogrammetric products such as orthomosaic, DSM or DTM and a photorealistic solid model of an object. All aforementioned processing steps are implemented in a single program in contrary to standard commercial software dividing all steps into dedicated modules. Image processing leading to final georeferenced products can be fully automated including sequential implementation of the processing steps at predetermined control parameters. The paper presents the practical results of the application fully automatic generation of othomosaic for both images obtained by a metric Vexell camera and a block of images acquired by a non-metric UAV system.
PL
Wśród wielu zagrożeń dla współczesnej żeglugi morskiej wymienia się między innymi zagrożenie terroryzmem. Na wodach płytkich może ono przyjmować postać zagrożenia improwizowanymi ładunkami wybuchowymi umieszczanymi na dnie z pokładów dowolnych jednostek, pojawiających się na akwenie w sposób niezauważalny dla kogokolwiek. Jednym z kierunków działań zmierzających do poprawy bezpieczeństwa w tym zakresie jest koncepcja hydroakustycznego systemu ochrony portów, torów wodnych i kotwicowisk. Zakłada ona możliwość szybkiego porównywania obrazów sonarowych z obrazami archiwalnymi, dając podstawy do wykrywania zmian na ochranianym akwenie, przy czym powszechna dostępność technik cyfrowych sugeruje wykonywanie takich poszukiwań w tej właśnie technologii. Porównywanie sonogramów metodami cyfrowej analizy obrazów wymaga w pierwszej kolejności przeprowadzenia ich prawidłowego automatycznego dopasowania. Automatyzacja procesu dopasowania obrazów otwiera dodatkowo perspektywy ich zastosowania w systemach nawigacji porównawczej. W artykule przedstawiono ujęcie tego zagadnienia w sposób właściwy dla technik wyszukiwania obrazów na podstawie zawartości (Content-Based Image Retrieval — CBIR). Wyznaczenie najlepszego dopasowania dwóch sonogramów przeprowadzono w oparciu o metodę maksymalizacji informacji wzajemnej.
EN
Among many threats to the present maritime navigation the terrorism has risen to the rank of one of the most serious. In shallow waters there is a possibility of using the improvised explosive devices which can be placed on the seabed impromptu and imperceptible for anybody from deck of any watercraft or from a harbor quay. One of the proposals to improve the safety in this area is the idea of hydro acoustic surveillance system of ports, fairways and anchorages. It is based on the assumption that sonar images can be quickly compared with archived images leading to detecting changes in the waters protected. Widespread access to digital technologies suggests using them to deal with the problem mentioned. However, to compare sonograms with the digital picture analysis methods requires, first of all, their proper automatic adjustment. The automation of the image-matching process also opens perspectives for using it in systems based on the comparative navigation. The paper presents the approach to the issue based on Content-Based Image Retrieval (CBIR).The Mutual Information method is employed to best match two sonograms.
PL
W codziennej praktyce teledetekcyjnej wielokrotnie zachodzi potrzeba dopasowania zdjęć ”piksel w piksel”. Jest to szczególnie ważne gdy wykonujemy równoczesną klasyfikację kilku zdjęć lub analizy porównawcze, których najlepszym przykładem jest detekcja zmian. Dopasowanie zdjęć satelitarnych, lotniczych, czy też innych danych obrazowych uzyskanych w wyniku skanowania, wykonywane jest najczęściej ręcznie na podstawie określanych przez operatora punktów. W Centrum Badań Kosmicznych PAN w Zespole Obserwacji Ziemi opracowano automatyczną metodę dopasowywania dwóch zdjęć, która działa w postaci niezależnego oprogramowania. W celu wyznaczenia punktów dopasowania na zdjęciu wejściowym i referencyjnym wykonywana jest detekcja krawędzi algorytmem Canny’ego. Następnie znajdowane są linie proste. Przecięcia ich tworzą punkty charakterystyczne, spośród których na obu zdjęciach wybierane są pary odpowiadających sobie punktów dopasowania. Muszą one spełniać określone warunki. Znalezione pary odpowiadających sobie punktów służą wyznaczeniu parametrów macierzy transformacji, na podstawie której wykonywana jest korekcja geometryczna. Zaproponowane podejście charakteryzuje się wysoką dokładnością wyników. Implementację metody wzbogaconą o graficzny interfejs użytkownika udostępniono w postaci oprogramowania matSIM. Jest ono rozpowszechniane na licencji freeware, dzięki czemu może być powszechnie wykorzystywane.
EN
Image geometrization is one of the basic processes in satellite image processing. As a result of the transformations performed, georeference is attached to the image becoming a cartometric image. Depending of the used algorithm, the referencing material can be a map, other image, a vectorial data base, control points interactively determined by an operator or RPC points (Rational Polynomial Coefficient). In everyday practice working with remote sensing means that we work more often with after orthorectification data, realized by image supplier. Despite this, “pixel to pixel” matching is still frequently needed. This is particularly important when we perform simultaneous classification of various images or comparing analyses, for example, detecting change. Image matching of satellite, aerial or other imaging data originated from scanning, is commonly hand made based on marked points by an operator. This is not a difficult process, however time-consuming and often troublesome. Some of the commercial software applications offer functionalities that do this process automatically, but frequently appear in additional paid modules. At the Space Research Centre in Earth Observation Group we have developed an automated image matching method that works integrated in a created stand-alone software. Matching points at reference and input image are marked automatically. To this end, edge detection is performed on the image using Canny’s algorithm. After this, straight lines are identified and on the intersection points between these lines, characteristic image points are created. From these points both images will select corresponding pairs of points to be matched. The points selected for this task must fulfill three conditions. Firstly, maximal and minimal distance between the points must be kept within the defined threshold values. Secondly, the angle between intersected segments that define a matching point must be similar. And at lastly, the correlation coefficient indicating pixel value defined at the surrounding point zone must be the same, allowing a predetermined margin over the defined threshold value. Using the matching points obtained during this process, the parameters of the transformation matrix are obtained, being those parameters the base for geometric image correction. The purposed method is characterized by high accuracy of its results. The firsts tests were performed using Matlab development environment and then, taking in mind the increasing need of high speed performance, the algorithm was adapted to work using C\C++ libraries. Based on this algorithm, we have developed and implemented the software application matSIM. We have released this application under a freeware license and can be commonly used. The user friendly graphic interface improves the usability and facilitates image visualization and selection of used regions of interest where matching points will be searched. Additionally, the application allows changing default parameters such as transformation method used (lineal, bilinear, quadratic) and resampling type (nearest neighbor, bilinear).The input and output data format is GeoTIFF.
PL
Celem niniejszego referatu jest przeanalizowanie działania wybranych algorytmów, które automatycznie obliczą elementy orientacji zewnętrznej sieci zdjęć a następnie wyznaczą współrzędne chmury punktów 3D, opisujących model badanego obiektu. Do obliczeń wykorzystano autorski program, realizujący kolejne etapy tworzenia modelu 3D. Pierwsza faza obejmowała wyróżnienie na poszczególnych zdjęciach elementów charakterystycznych, gdzie wykorzystane zostały operatory detekcji narożników SIFT i SUSAN. Następnym krokiem było połączenie punktów homologicznych na sąsiednich zdjęciach. Sposób realizacji tego kroku jest determinowany przez wybór typu operatora. Operator SIFT posiada dedykowany mechanizm tworzenia par, podczas gdy operator SUSAN wymaga utworzenia odrębnych metod. Do dopasowania punktów wykorzystano metodę Area Base Matching, zmodyfikowaną na potrzeby modelowania 3D. Na podstawie tak zebranych danych, kolejnym etapem jest wyznaczenie współrzędnych 3D chmury punktów mierzonego obiektu. W niniejszym referacie przedstawiono dwa rozwiązania. Jedno z nich realizuje dopasowywanie zdjęć parami, korzystając z macierzy podstawowej a drugie trójkami, wykorzystując rachunek tensorowy. W praktyce, pierwsze rozwiązanie wyznaczające punkty modelu okazało się mniej stabilne numerycznie, co może prowadzić do znacznych błędów w modelu końcowym. Drugie rozwiązanie jest trudniejsze do wykorzystania, gdyż wymaga odnalezienia odpowiadających sobie punktów na co najmniej trzech zdjęciach. Eksperymenty przeprowadzono na wybranych obiektach bliskiego zasięgu, z odpowiednio wykonaną geometrią zdjęć, tworzących pierścień (okrąg) wokół mierzonego obiektu.
EN
The objective of this paper is to analyse operations of selected algorithms, which will automatically compute elements of external orientation of a network of photographs and then, they will determine co-ordinates of a 3D cloud of points, which describe a model of the analysed object. The author’s software tool has been utilised for calculations; it performs successive stages of the 3D model generation: detection of characteristic points, point matching on successive photographs, determination of a tensor, calibration and 3D point cloud generation. A series of experiments have been performed in order to evaluate selection of the optimum solution. The first stage included distinguishing of characteristic elements on particular photographs; corner detection operators, SIFT and SUSAN were applied for that stage. The next step concerned connection of homological points on neighbouring photographs. The method of implementation of that step is determined by selection of the operator type. The SIFT operator has the dedicated mechanism of pair creation, whilst the SUSAN operator requires creation of separate methods. The Area Base Matching method, modified according to the demands of 3D modelling, was used for the needs of point matching. This method investigates correlation of the background within the neighbourhood of characteristic points and uses the results of that investigations to match the photographs. Basing on data collected this way, the next stage aims at determination of 3D co-ordinates of the cloud of points of the measured object. Two solutions have been presented in this paper. One of them allows for matching photographs in pairs, using the fundamental matrix; the second solution allows for threesome matching of photographs, using the tensor calculus. In practice, the first solution, which determines the model points, turned to be less numerically stable, what may lead to considerable errors of the final model. The second solution is more difficult to use, since it requires that corresponding points are found in at least three photographs. Experiments were performed for selected close range objects, with the appropriate specified geometry of photographs, which created a ring around the measured object.
EN
The paper presents a novel approach to Canonical Correlation Analysis (CCA) applied to visible and thermal infrared spectrum facial images. In the typical CCA framework biometrical information is transformed from original feature space into the space of canonical variates, and further processing takes place in this space. Extracted features are maximally correlated in canonical variates space, making it possible to expose, investigate and model latent relationships between measured variables. In the paper the CCA is implemented along two directions (along rows and columns of pixel matrix of dimension M x N) using a cascade scheme. The first stage of transformation proceeds along rows of data matrices. Its results are reorganized by transposition. These reorganized matrices are inputs to the second processing stage, namely basic CCA procedure performed along the rows of reorganized matrices, resulting in fact in proceeding along the columns of input data matrix. The so called cascading 2DCCA method also solves the Small Sample Size problem, because instead of the images of size MxN pixels in fact we are using N images of size M x 1 pixels and M images of size 1 x N pixels. In the paper several numerical experiments performed on FERET and Equinox databases are presented.
EN
Close range photogrammetry encounters many problems with reconstruction of objects three-dimensional shape. Relative orientation parameters of taken photos makes usually key role leading to right solution of this problem. Automation of technology process is hardly performed due to recorded scene complexity and configuration of camera positions. This configuration makes the process of joining photos into one set usually impossible automatically. Application of camcorder is the solution widely proposed in literature for support in 3D models creation. Main advantages of this tool are connected with large number of recorded images and camera positions. Exterior orientation changes barely between two neighboring frames. Those features of film sequence gives possibilities for creating models with basic algorithms, working faster and more robust, than with remotely taken photos. The first part of this paper presents results of experiments determining interior orientation parameters of some sets of frames, presenting three-dimensional test field. This section describes calibration repeatability of film frames taken from camcorder. It is important due to stability of interior camera geometric parameters. Parametric model of systematical errors was applied for correcting images. Afterwards a short film of the same test field had been taken for determination of check points group. This part has been done for controlling purposes of camera application in measurement tasks. Finally there are presented some results of experiments which compare determination of recorded object points in 3D space. In common digital photogrammetry, where separate photos are used, first levels of image pyramids are taken to connect with feature based matching. This complicated process creates a lot of emergencies, which can produce false detections of image similarities. In case of digital film camera, authors of publications avoid this dangerous step, going straightly to area based matching, aiming high degree of similarity for two corresponding film frames. First approximation, in establishing connections between photos, comes from whole image distance. This image distance method can work with more than just two dimensions of translation vector. Scale and angles are also used for improving image matching. This operation creates more similar looking frames where corresponding characteristic points lays close to each other. Procedure searching for pairs of points works faster and more accurately, because analyzed areas can be reduced. Another proposed solution comes from image created by adding differences between particular frames, gives more rough results, but works much faster than standard matching.
EN
Reconstruction of three dimensional models of objects from images has been a long lasting research topic in photogrammetry and computer vision. The demand for 3D models is continuously increasing in such fields as cultural heritage, computer graphics, robotics and many others. The number and types of features of a 3D model are highly dependent on the use of the models, and can be very variable in terms of accuracy and time for their creation. In last years, both computer vision and photogrammetric communities have approached the reconstruction problems by using different methods to solve the same tasks, such as camera calibration, orientation, object reconstruction and modelling. The terminology which is used for addressing the particular task in both disciplines is sometimes diverse. On the other hand, the integration of methods and algorithms coming from them can be used to improve both. The image based modelling of an object has been defined as a complete process that starts with image acquisition and ends with an interactive 3D virtual model. The photogrammetric approach to create 3D models involves the followings steps: image pre-processing, camera calibration, orientation of images network, image scanning for point detection, surface measurement and point triangulation, blunder detection and statistical filtering, mesh generation and texturing, visualization and analysis. Currently there is no single software package available that allows for each of those steps to be executed within the same environment. For high accuracy of 3D objects reconstruction operators are required as a preliminary step in the surface measurement process, to find the features that serve as suitable points when matching across multiple images. Operators are the algorithms which detect the features of interest in an image, such as corners, edges or regions. This paper reports on the first phase of research on the generation of high accuracy 3D model measurement and modelling, focusing upon the application of different operators for accurate feature point extraction. The implementation of those operators is discussed and performance of differen operators is analysed. The optimal operator for high accuracy close range object reconstruction is then highlighted. This research has facilitated a development of the feature extraction and image measurement process that will be central to the development of an automatic procedure for high accuracy point cloud generation in multi image networks where robust orientation and 3D point determination will facilitate surface measurement and modelling within a single software system.
PL
Ortofotomapa jest obecnie najbardziej popularnym produktem kartograficznym. W obszarze zabudowanym obrazy budynków są jednak przesunięte zgodnie z rzutem środkowym, a część terenu jest zakryta (tzw. „martwe pola”). Tej wady nie ma „prawdziwe” orto (true-ortho). Do jego wykonania konieczny jest jednak numeryczny model pokrycia terenu (NMPT) z przestrzennymi modelami budynków. W artykule podjęto dyskusję uwarunkowań technicznych generowania trueortho. Rozważane są szczególne wymagania do wykonawstwa zdjęć lotniczych, generowania brył budynków z ręcznej stereodigitalizacji modelu zbudowanego ze zdjęć, z automatycznego dopasowania obrazów, oraz danych skaningu laserowego (LIDAR). Badany jest wpływ danych źródłowych na jakość wynikowego true-ortho, oraz koszt jego wytworzenia. Prezentowane są wstępne wyniki. Prace są kontynuowane.
EN
Digital orthophotomap is at present the most popular cartographic product. However, in built-up areas, images of buildings are displaced according to the central projection, and part of the terrain is invisible (the so-called "occluded area"”). A true orthomap does not have such defects. The digital surface model (DSM) is however necessary, with spatial models of buildings to make it. The paper discusses technical aspects of the true-ortho generation. Special requirements relating to the execution of air photos are considered, along with the analysis of generating the building models based on the manual stereo digitalisation of the terrain model built on the basis of photos, automatic image matching, and laser data (LIDAR). The influence of source data on the quality of the outcome true-ortho, and the costs of its producing are reviewed. Preliminary results are presented. Works are continued.
PL
W niniejszym artykule poruszono problem wykorzystania sztucznych sieci neuronowych (SSN) w geoinformatyce obrazowej, ze szczególnym uwzględnieniem procesów fotogrametrycznych. Przedstawiono wyniki przeglądu literatury światowej oraz zaprezentowano rezultaty badań prowadzonych w ramach projektu dotyczącego użycia sieci do spasowania fotogrametrycznych zdjęć lotniczych. W oparciu o literaturę, przeanalizowano wyniki prac wykorzystujących sieci neuronowe do: klasyfikacji obrazów wielospektralnych, wydobywania cech, kalibracji kamer oraz spasowania obrazów. Zaprezentowano również wyniki własnych eksperymentów, bazujących na idei wykorzystania sieci opierającej się na wyborze specjalnej reprezentacji, która następnie jest wykorzystywana do spasowania obrazów fotogrametrycznych dla dwóch wybranych typów terenu. W badaniach wykorzystano sieci impulsujące ICM (Intersecting Cortical Model), będące jedną z wersji sieci PCNN (Pulse Coupled Neural Network), przy pomocy których wygenerowano tzw. podpisy obrazów (signatures), czyli kilkudziesięcioelementowe wektory, opisujące strukturę fragmentu obrazu. Wyniki badań częściowo potwierdzają słuszność przyjętych założeń, mimo występujących problemów związanych ze specyfiką obrazów fotogrametrycznych.
EN
The paper discusses the use of artificial neural networks in geoinformatics, particularly in photogrammetric image analysis. It reviews the relevant international publications (including the ISPRS congress proceedings) and discusses the outcome of research on the use of networks for matching photogrammetric images. The paper shows also results of tests, described in the literature, in which neural networks were applied to perform tasks such as feature extraction, multispectral image classification, camera calibration and matching. The idea of using neural networks is based on the selection of special representations. The essence of the neural networks-based methodology consists of preparing suitable representations of image fragments and of using them toclassify various types of neural networks. One of the methods adopted was based on the distribution and direction of image gradient module value. The research was conducted on forty four sub-images, taken from aerial photographs of two Polish cities: Bytom and Cracow. The areas shown in those images differed in their terrain cover. The images were divided into three categories: full sub-images, sub-images divided into 4 parts, and sub-images divided into 6 small parts. The research involved the Intersecting Cortical Model (ICM), a version of the Pulse Coupled Neural Network (PCNN), with which the so-called image signatures, i.e., a few dozen-element vectors that describe the image structure were generated. The preliminary results partially confirm the correctness of the approach adopted, despite problems resulting from the complex nature of photogrammetric images.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.