Czasopismo
Tytuł artykułu
Warianty tytułu
Porównanie trzech zagregowanych klasyfikatorów w zagadnieniu finansowym
Języki publikacji
Abstrakty
Poczynając od lat 60., do predykcji upadłości stosuje się wiele technik klasyfikacyjnych. W stosunku do tradycyjnych modeli statystycznych drzewa klasyfikacyjne są narzędziem alternatywnym. Modele te są w stanie wychwycić nieliniowe zależności i wykazują dobre własności w przypadku obecności informacji jakościowych, co ma miejsce przy opisie sytuacji przedsiębiorstw, które poddawane są analizie w prognozowaniu bankructwa. Dlatego też drzewa klasyfikacyjne są szeroko wykorzystywane jako bazowe klasyfikatory przy budowie modeli zagregowanych. Celem tego badania jest porównanie zachowań trzech zagregowanych klasyfikatorów, tj. AdaBoost, Bagging and Random Forest w przypadku zastosowań w prognozowaniu upadłości. (abstrakt oryginalny)
Rocznik
Tom
Strony
69-76
Opis fizyczny
Twórcy
autor
- University of Castilla-La Mancha, Spain
autor
- University of Castilla-La Mancha, Spain
autor
- University of Castilla-La Mancha, Spain
Bibliografia
- Alfaro E., Gamez M. and Garcia N. (2007), A Boosting Approach for Corporate Failure Prediction, „Applied Intelligence" 27, p. 29-37.
- Banfield R.E., Hall L.O., Bowyer K.W., Bhadoria D., Kegelmeyer W.P. and Eschrich S. (2004), A Comparison of Ensemble Creation Techniques, [in:] F. Roli, J. Kittler and T. Windeatt (eds.), Multiple Classifier Systems, vol. 3077 of Lecture Notes in Computer Science, Springer, Cagliari, Italy, p. 223-232.
- Bauer E., and Kohavi R. (1999), An Empirical Comparison of Voting Classification Algorithm: Bagging, Boosting and Variants, „Machine Learning" 36, p. 105-142.
- Breiman L. (1996), Bagging Predictors, „Machine Learning" 24(2), p. 123-140.
- Breiman L. (2001), Random Forest, „Machine Learning" 45, p. 5-32.
- Breiman L., Friedman J.H., Olshen R., and Stone C.J. (1984), Classification and Regression Trees, Belmont, Wadsworth International Group.
- Demsar J. (2006), Statistical Comparison of Classifier over Multiple Data Sets, „Journal of Machine Learning Research" 7, p. 1-30.
- Dietterich T.G. (2000), Ensemble Methods in Machine Learning, [in:] J. Kittler and F. Roli (eds.), Multiple Classifier Systems, vol. 1857 of Lecture Notes in Computer Science. Springer, Cagliari, Italy, p. 1-15.
- Freund Y. and Schapire R.E. (1996), Experiments with a New Boosting Algorithm, Proc. 13th International Conference on Machine Learning, Morgan Kaufmann, p. 148-146.
- Freund Y. and Schapire R.E. (1997), A Decision-theoretic Generalization of On-line Learning and an Application to Boosting. „Journal of Computer and System Sciences" 55(1), p. 119-139.
- Friedman J., Hastie T. and Tibshirani R. (2000), Additive Logistic Regression: a Statistical View of Boosting, „The Annals of Statistics" 38(2), p. 337-407.
- Frydman H., Altman E. and Kao D. (1985), Introducing Recursive Partitioning for Financial Classification: the Case of Financial Distress, „Journal of Finance", p. 269-291.
- Kuncheva L.I. (2004), Combining Pattern Classifiers. Methods and Algorithms, Wiley.
- Opitz D. and Maclin R. (1999), Popular Ensemble Methods: An Empirical Study, „Journal of Artificial Intelligence Research" 11, p. 169-198.
- R Development Core Team (2004), R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Viena, http://www.R-project.org.
- Sheskin D.J. (2000), Handbook of Parametric and Nonparametric Statistical Procedures, Chapman & Hall/CRC.
- Wilcoxon F. (1945), Individual Comparisons by Ranking Methods, „Biometrics" 1, p. 80-83.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000168575116