PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Klasyczna i neuronowa analiza głównych składowych na przykładzie zadania kompresji obrazu

Autorzy
Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
Classical and neural network-based principal component analysis for image compression
Języki publikacji
PL
Abstrakty
PL
W artykule omówiono zastosowanie analizy składników głównych (PCA) w zadaniu kompresji stratnej sygnału na przykładzie kompresji obrazu. Zadanie zrealizowano z wykorzystaniem klasycznej metody PCA oraz dwóch rodzajów sieci neuronowych: jednokierunkowej, dwuwarstwowej sieci z uczeniem nadzorowanym i jednowarstwowej sieci z uczeniem nienadzorowanym. W każdym z przypadków przeanalizowano wpływ struktury modelu PCA na wartości współczynnika kompresji oraz średniokwadratowego błędu kompresji.
EN
In the paper, lossy data compression techniques based on the principal component analysis (PCA) are considered on the example of image compression. The presented task is performed using the classical PCA method based on the eigen-decomposition of the image covari-ance matrix as well as two different kinds of artificial neural networks. The first neural structure used is a two-layer feed-forward network with supervised learning shown in Fig.1, while the second one is a single-layered network with unsupervised Hebbian learning. In each case considered, the effect of the PCA model structure on the data compression ratio and the mean square reconstruction error is analysed. The compression results for a Hebbian neural network with K=4 PCA units are presented in Figs. 2, 3 and 4. They show that only 4 eigenvectors are able to capture the main features of the processed image, giving as a result high value of the data compression ratio. However, the reconstructed image quality is not sufficient from a practical point of view. Therefore, selection of the appropriate value for K should take into account the tradeoff between a sufficiently high value for the compression ratio and a reasonably low value for the image reconstruction error. The summary results for both classical and neural PCA compression approaches obtained for different number of eigenvectors (neurons) are compared in Fig. 5. The author concludes that a positive aspect of using neural networks as a tool for extracting principal components from the image data is that they do not require calculating the correlation matrix explicitly, as in the case of the classical PCA-based approach.
Wydawca
Rocznik
Strony
34--37
Opis fizyczny
Bibliogr. 12 poz., rys., wykr., wzory
Twórcy
autor
  • Politechnika Opolska, Instytut Automatyki i Informatyki, ul. Sosnkowskiego 31, 45-272 Opole
Bibliografia
  • [1] Bartecki K.: Neural network-based PCA: An application to approximation of a distributed parameter system. Lecture Notes in Computer Science, vol. 7267 (2012), 3-11.
  • [2] Berkooz G., Holmes P., Lumley J. L.: The proper orthogonal decomposition in the analysis of turbulent flows. Annual Review of Fluid Mechanics, vol. 25 (1993), 539–575.
  • [3] Chatterjee A.: An introduction to the proper orthogonal decomposition. Current Science, vol. 78, no. 7 (2000), 808–817.
  • [4] Diamantaras K. I., Kung S. Y.: Principal Component Neural Networks – Theory and Applications. John Wiley, New York (1996).
  • [5] Cierniak R., Rutkowski L.: Nowe metody kompresji obrazu. Wydawnictwo Gnome, Gliwice (2000).
  • [6] Skarbek W. (red.): Multimedia – Algorytmy i Standardy Kom-presji. Akademicka Oficyna Wydawnicza, Warszawa (1998).
  • [7] Zygarlicki J., Mroczka J.: Sposób doboru metod kompresji dla sygnałów z sieci elektroenergetycznej. Pomiary Automatyka Kontrola, nr 10 (2006), 35-38.
  • [8] Osowski S.: Sieci neuronowe do przetwarzania informacji. OW Politechniki Warszawskiej (2000).
  • [9] Bartecki K., Czorny M.: Implementacja sztucznej sieci neuro-nowej w architekturze równoległej z wykorzystaniem protokołu MPI. Pomiary Automatyka Kontrola, vol. 57, nr 6, (2011), 638-640.
  • [10] Oja E.: A simplied neuron model as a principal component analyzer. Journal of Mathematical Biology, vol. 15, no 3, (1982), 267-273.
  • [11] Oja E.: Neural networks, principal components and subspaces. International Journal of Neural Systems, vol. 1, no 1 (1989), 61-68.
  • [12] Sanger T. D.: Optimal unsupervised learning in a single-layer linear feedforward neural network. Neural Networks, vol. 2 (1989), 459-473.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-9d084ec6-564e-4e55-b5c4-a9a5604108ef
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.