PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Klasyfikacja stanów przedkrytycznych

Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
Classification of pre-critical states
Języki publikacji
PL
Abstrakty
PL
Praca zawiera przykład klasyfikacji danych rzeczywistych opisujących sygnały niekrytyczne, przedkrytyczne i krytyczne. Celem jest rozpoznanie stanów niebezpiecznych tak wcześnie jak to możliwe. Ze względu na brak separowalności liniowej danych w celu separacji klas użyto klasyfikacji hierarchicznej z cięciami za pomocą klasyfikatorów liniowych oraz z podejściem one-versus-rest z wyróżnioną klasą sygnałów bezpiecznych. W wyniku ośmiu cięć uzyskano ostateczny podział przestrzeni skutkujący odseparowaniem klasy sygnałów bezpiecznych od podejrzanych, tj. przedkrytycznych i krytycznych oraz dający najmniejszą liczbę błędnie sklasyfikowanych obiektów z klasy sygnałów niekrytycznych.
EN
The paper presents an application of classification methods to time-continuous signals (1). Signals with values that exceed a certain critical maximum are called dangerous or critical, otherwise we speak about normal or routine operation of the system under consideration, Fig. 1. The problem is to recognize pre-critical states, i.e. states preceding the actual dangerous ones, and that as early as possible. False negative classifications may have very serious consequences, while false positive verdicts cause expensive but unnecessary counter-measures. As pre-processing, the input signals are characterized by a number of features, which form sequences of vector data, indexed by the cycle number (2). In a first stage, suspicious feature vectors are selected, from which in a second sweep unlikely candidates are removed. The focus of the present paper is this second stage, i.e. the distinction between actual pre-critical and the harmless routine states among the suspicious states, indicated in the first stage by a certain preliminary test. The choice of features and the logic behind the preliminary test are beyond our present scope. Let it suffice to say that the first step is a combination of Principal Component Analysis and some statistical test, and that it is very effective but unspecific in the application at hand.For the real-world data we used to develop the method, it turned out that the obtained feature vectors were linearly non-separable. For that reason a hierarchical approach was applied, where in several steps linear cuts (4,5) of the one-versus-rest type were performed in order to single out the true pre-critical states. For the example under consideration, in eight iterations separation between pre-critical and non-pre-critical ones was achieved. We succeeded to keep the number of wrong negatives at zero while reducing the number of wrong positives to a fraction of the starting value, established by the preliminary test, Fig. 3, 4, 5. The final sensitivity, for the given data set, is 100%, and the achieved specificity is at 93.15%. Numerical experiments, using nonlinear classifiers on much larger data sets, are under way. The present aim is to find an optimal set of features and a one-step criterion which further improves the quality of the classification.
Wydawca
Rocznik
Strony
872--875
Opis fizyczny
Bibliogr. 17 poz., rys., wykr., wzory
Twórcy
Bibliografia
  • [1] Allwein E. L., Schapire R. E., Singer Y.: Reducing multiclass to binary: a unifying approach for margin classifiers, Journal of Machine Learning Research, 1, 113-141, 2001.
  • [2] Bobrowski L.: Eksploracja danych oparta na wypukłych i odcinkowo liniowych funkcjach kryterialnych. Wydawnictwo Politechniki Białostockiej, Białystok, 2005.
  • [3] Bose R. C., Ray-Chaudhuri D. K.: On A Class of Error Correcting Binary Group Codes, Information and Control 3, 68-79, 1960.
  • [4] Burges C. J.: A tutorial on support vector machines for pattern recognition. Data Mining and Knowledge Discovery, 2:121-167, 1998.
  • [5] Crammer K., Singer Y.: On the learnability and design of output codes for multiclass problems. Proceedings of the Thirteenth Annual Conference on Computational Learning Theory (COLT 2000), Stanford University, Palo Alto, CA, June 28 - July 1, 2000.
  • [6] Cover T. M., Heart P. E., Nearest neighbor pattern classification, IEEE Trans. Inform. Theory, IT 13, 21-27, 1967.
  • [7] Dietterich T. G., Bakiri G.: Solving multiclass learning problem via error correcting codes, Journal of Artificial Intelligence Research, 2, 263-386, 1995.
  • [8] Duda O. R., Heart P. E., Stork D. G.: Pattern Classification, Second edition, John Wiley & Sons, 2001.
  • [9] Fisher R. A.: The use of multiple measurements in taxonomic problems, Annals of Eugenics, 7, 179-188, 1936.
  • [10] Gentle J. E., Random Number Generation and Monte Carlo Methods, Springer Verlag, 1998.
  • [11] Jolliffe I. T.: Principal Component Analysis, Springer-Verlag, New York, 2002.
  • [12] Kołodziej W.: Analiza matematyczna, PWN, 2009.
  • [13] Quinlan J. R.: Induction of decision trees, Machine Learning 1 (1), 81-106, 1986.
  • [14] Topczewska M., Frischmuth K.: Classification strategies based on dipoles (in Polish). Pomiary, Automatyka, Kontrola, 56 (6): 632-635, 2010.
  • [15] Topczewska M., Frischmuth K.: Numerical aspects of weight calculation in classification methods. In PTSK Conference, Krynica Górska, Poland, Sept. 26-29, 2007.
  • [16] Vapnik V. N.: Statistical learning theory. Wiley J., 1998.
  • [17] Weston J., Watkins C.: Support vector machines for multi-class pattern recognition, In Proceedings of the Seventh European Symposium On Artificial Neural Networks (ESANN 99), Bruges, April 21-23, 1999.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-BSW4-0126-0013
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.