PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

MATSIM - automatyczne dopasowanie pary zdjęć satelitarnych metodą analizy cech przestrzennych

Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
MATSIM - automatic satellite image matching based on spatial features analysis
Języki publikacji
PL
Abstrakty
PL
W codziennej praktyce teledetekcyjnej wielokrotnie zachodzi potrzeba dopasowania zdjęć ”piksel w piksel”. Jest to szczególnie ważne gdy wykonujemy równoczesną klasyfikację kilku zdjęć lub analizy porównawcze, których najlepszym przykładem jest detekcja zmian. Dopasowanie zdjęć satelitarnych, lotniczych, czy też innych danych obrazowych uzyskanych w wyniku skanowania, wykonywane jest najczęściej ręcznie na podstawie określanych przez operatora punktów. W Centrum Badań Kosmicznych PAN w Zespole Obserwacji Ziemi opracowano automatyczną metodę dopasowywania dwóch zdjęć, która działa w postaci niezależnego oprogramowania. W celu wyznaczenia punktów dopasowania na zdjęciu wejściowym i referencyjnym wykonywana jest detekcja krawędzi algorytmem Canny’ego. Następnie znajdowane są linie proste. Przecięcia ich tworzą punkty charakterystyczne, spośród których na obu zdjęciach wybierane są pary odpowiadających sobie punktów dopasowania. Muszą one spełniać określone warunki. Znalezione pary odpowiadających sobie punktów służą wyznaczeniu parametrów macierzy transformacji, na podstawie której wykonywana jest korekcja geometryczna. Zaproponowane podejście charakteryzuje się wysoką dokładnością wyników. Implementację metody wzbogaconą o graficzny interfejs użytkownika udostępniono w postaci oprogramowania matSIM. Jest ono rozpowszechniane na licencji freeware, dzięki czemu może być powszechnie wykorzystywane.
EN
Image geometrization is one of the basic processes in satellite image processing. As a result of the transformations performed, georeference is attached to the image becoming a cartometric image. Depending of the used algorithm, the referencing material can be a map, other image, a vectorial data base, control points interactively determined by an operator or RPC points (Rational Polynomial Coefficient). In everyday practice working with remote sensing means that we work more often with after orthorectification data, realized by image supplier. Despite this, “pixel to pixel” matching is still frequently needed. This is particularly important when we perform simultaneous classification of various images or comparing analyses, for example, detecting change. Image matching of satellite, aerial or other imaging data originated from scanning, is commonly hand made based on marked points by an operator. This is not a difficult process, however time-consuming and often troublesome. Some of the commercial software applications offer functionalities that do this process automatically, but frequently appear in additional paid modules. At the Space Research Centre in Earth Observation Group we have developed an automated image matching method that works integrated in a created stand-alone software. Matching points at reference and input image are marked automatically. To this end, edge detection is performed on the image using Canny’s algorithm. After this, straight lines are identified and on the intersection points between these lines, characteristic image points are created. From these points both images will select corresponding pairs of points to be matched. The points selected for this task must fulfill three conditions. Firstly, maximal and minimal distance between the points must be kept within the defined threshold values. Secondly, the angle between intersected segments that define a matching point must be similar. And at lastly, the correlation coefficient indicating pixel value defined at the surrounding point zone must be the same, allowing a predetermined margin over the defined threshold value. Using the matching points obtained during this process, the parameters of the transformation matrix are obtained, being those parameters the base for geometric image correction. The purposed method is characterized by high accuracy of its results. The firsts tests were performed using Matlab development environment and then, taking in mind the increasing need of high speed performance, the algorithm was adapted to work using C\C++ libraries. Based on this algorithm, we have developed and implemented the software application matSIM. We have released this application under a freeware license and can be commonly used. The user friendly graphic interface improves the usability and facilitates image visualization and selection of used regions of interest where matching points will be searched. Additionally, the application allows changing default parameters such as transformation method used (lineal, bilinear, quadratic) and resampling type (nearest neighbor, bilinear).The input and output data format is GeoTIFF.
Rocznik
Tom
Strony
357--366
Opis fizyczny
Bibliogr. 13 poz.
Twórcy
autor
  • Centrum Badań Kosmicznych, Polska Akademia Nauk
  • Centrum Badań Kosmicznych, Polska Akademia Nauk
Bibliografia
  • 1. Fonseca L. M. G., Costa M. H. M., 1997. „Automatic registration of satellite images”, Proc. Computer Graphics and Image Processing, s, 219-226
  • 2. Janowski A., Paszotta Z., Szulwic J., 2004. „Prezentacja i zastosowanie systemu internetowych pomiarów obrazów fotogrametrycznych”, Sympozjum PTFiT, Białobrzegi.
  • 3. Pawlik P, Mikrut S., 2007. „Porównanie dokładności wybranych metod dopasowania obrazów zdjęć lotniczych”. Archiwum Fotogrametrii, Kartografii i Teledetekcji, Vol 17b.
  • 4. Mikrut S., Mikrut Z., 2007. „Sieci neuronowe w procesach automatycznej korelacji zdjęć Lotniczych”. Archiwum Fotogrametrii, Kartografii i Teledetekcji, Vol 17b.
  • 5. Mikrut S., Mikrut Z., 2008. „Wykorzystanie sieci neuronowych w procesach fotogrametrycznych”, Archiwum Fotogrametrii, Kartografii i Teledetekcji, Vol, 18.
  • 6. Canny J., 1986. „A computational approach to edge detection”, IEEE Trans. Pattern Anal. and Mach. Int., vol. 8, no. 6, ss. 679-698.
  • 7. Beaudet P. R., 1978. „Rotationally invariant image operators”, International Joint Conference on Pattern Recognition. s. 579-583.
  • 8. Harris C. J., Stephens M., 1988. „A combined corner and edge detector”, In Proc. 4th Alvey Vision Conference, Manchester.
  • 9. Lowe D.G., 1999. „Object recognition from local scale-invariant features”. Proceedings of the International Conference on Computer Vision. 2. s. 1150-1157.
  • 10. Lowe D.G., 2004. „Distinctive image features from scale-invariant keypoints”, International Journal of Computer Vision, 60, 2 s. 91-110.
  • 11. Brunelli R., 2009. „Template Matching Techniques in Computer Vision” s. 97-108.
  • 12. Katsikis V. N., Pappas D., 2008. “Fast computing of the Moore-Penrose inverse matrix”, Electronic Journal of Linear Algebra, Vol. 17, s. 637-650.
  • 13. University of British Columia, Faculty of Scienice, SIFT Keypoint Detectorhttp://www.cs.ubc.ca/~lowe/keypoints/
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-fa16340e-6ff4-477e-ab22-38b03a2f1563
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.