PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Minimalnoodległościowy klasyfikator kaskadowy wykorzystujący ideę zawierających się zbiorów zredukowanych

Autorzy
Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
EN
An NN-like cascade classifier based on the idea of inclushe reduced sets
Języki publikacji
PL
Abstrakty
PL
W pracy zaproponowano nowy klasyfikator kaskadowy oparty na koncepcji zawierających się w sobie zespołów zbiorów zredukowanych oraz klasyfikatora bardziej złożonego w ostatnim etapie. Jako kryterium akceptacji decyzji na danym etapie kaskady przyjęto jednomyślne głosowanie członków zespołu. Idea zawierających się w sobie zbiorów zredukowanych wpływa korzystnie na szybkość klasyfikacji. W testach na dwóch rzeczywistych zbiorach danych przedstawiony schemat osiągnął jakość klasyfikacji wyższą od klasyfikatorów &-NN i voting &-NN przy kilkakrotnie szybszej klasyfikacji.
EN
In this paper we propose a new cascade classifier based on the concept of inclusive ensembles of reduced sets and a more complex subclassifier in the final stage. Unanimous voting is chosen to accept the prediction at each stage (except the last one) of the classifier. The idea of inclusive reduced sets is beneficial for the classification speed. In the tests on two real-world datasets, the presented classifier surpassed both k-NN and voting k-NN classifiers in accuracy, being also several times faster.
Wydawca
Rocznik
Strony
313--325
Opis fizyczny
Bibliogr. 23 poz., tab.
Twórcy
autor
Bibliografia
  • [1] Baram Y.: Partial classification: The benefit of deferred decision. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. PAMI-20, No. 8, 1998, 769-776
  • [2] Bauer E., Kohavi R.: An empirical comparison of voting classification algorithms: bagging, boosting and variants. Machine Learning, vol. 36, 1999, 105-142
  • [3] Dietterich T.G.: Ensemble methods in machine learning. Multiple Classifier Systems. First International Workshop (MCS2000), Cagliari, Włochy, Springer-Verlag 2000, 1-15
  • [4] Duda R.O., Hart P.E.: Pattern Classification and Scene Analysis. New York, USA, John Wiley and Sons 1973
  • [5] Gowda K.C., Krishna G.: The condensed nearest neighbor rule using the concept of mutual nearest neighborhood. IEEE Transactions on Information Theory, vol. IT-25, No. 4, 1979,488-490
  • [6] Grabowski S.: Lokalny wybór zredukowanego zbioru odniesienia. Seminarium nt. przetwarzania i analizy sygnałów, Słok 2002, 142-147
  • [7] Grabowski S.: Voting over multiple k-NN classifiers. Proc. Int. Conf. TCSET’2002, Lviv-Slavske, Ukraina 2002, 223-225
  • [8] Grabowski S.: A family of cascade NN-like classifiers. Proc. Int. Conf. CADSM’2003, Lviv- Slavske, Ukraina, luty 2003, 503-506
  • [9] Grabowski S.: Telescope ensembles of reduced sets. III Konferencja „Komputerowe Systemy Rozpoznawania” (KOSYR 2003), Miłków k/Karpacza, maj 2003
  • [10] Grabowski S., Jóźwik A.: Sample set reduction for nearest neighbor classifiers under different speed requirements. Proc. Int. Conf. CADSM’2003, Lviv-Slavske, Ukraina, luty 2003, 465-469
  • [11] Grabowski S., Jóźwik A., Chen C.-H.: Nearest neighbor decision rule for pixel classification in remote sensing. Praca nadesłana jako część monografii „Frontiers of Remote Sensing Info Processing”, Patt S. (ed.), 2003
  • [12] Grabowski S., Sokołowska B.: Voting over multiple k-NN and k-NCN classifiers for detection of respiration pathology. III Konferencja „Komputerowe Systemy Rozpoznawania” (KOSYR 2003), Miłków k/Karpacza, maj 2003
  • [13] Hansen L. K., Salamon P.: Neural network ensembles. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. PAMI-12, No. 10, 1990, 993-1001
  • [14] Hart P.E.: The condensed nearest neighbor rule. IEEE Transactions on Information Theory, vol. IT-14, No. 3, 1968, 515-516
  • [15] Jóźwik A., Chmielewski L., Cudny W., Skłodowski M.: A l-NN preclassifier for fuzzy k-NN rule. Proc. 13th Int. Conf. on Pattern Recognition, vol. IV, track D, Parallel and Connectionist Systems, Wiedeń, Austria, 1996, 234-238
  • [16] Kaynak C., Alpaydin E.: Multistage cascading of multiple classifiers: One man s noise is another man's data. Proc. 17th Int. Conf. on Machine Learning, Stanford University, CA, USA, 2000, 455-462
  • [17] Marquis Condorcet, J.A.: Sur les elections par scrutiny. Histone de l’Academie Royale des Sciences, 1781, 31-34
  • [18] Nieniewski M., Chmielewski L., Jóźwik A., Skłodowski M.: Morphological detection and feature-based classification of cracked regions in ferrites. Machine Graphics and Vision, vol. 8, No. 4, 1999
  • [19] Roli F.: Multisensor image recognition by neural networks with understandable behaviour. International Journal of Pattern Recognition and Artificial Intelligence, vol. 10, no. 8, 1996, 887-917
  • [20] Skalak D.B.: Prototype and feature selection by sampling and random mutation hill climbing algorithms. Proc. 11th Int. Conf. on Machine Learning, New Brunswick, NJ, USA, 1994, 293- 301
  • [21] Skalak D.B.: Prototype Selection for Composite Nearest Neighbor Classifiers. PhD thesis, Dept, of Computer Science, University of Massachusetts, Amherst, MA, USA, 1996
  • [22] Tomek I.: Two modifications of CNN. IEEE Transactions on Systems, Man and Cybernetics, vol. SMC-6, No. 11, 1976, 769-772
  • [23] Wilson D.R., Martinez T.R.: Reduction techniques for instance-based learning algorithms. Machine Learning, vol. 38, No. 3, 2000, 257-286
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-AGH1-0016-0029
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.