Identyfikatory
Warianty tytułu
Zdolności prognostyczne komitetów bazujących na dippolach - analiza porównawcza
Języki publikacji
Abstrakty
Wpracy przedstawiona została analiza porównawcza własności prognostycznych komitetów bazujących na sieciach neuronowych oraz drzewach regresyjnych. Tworzenie kolejnych się przestrzeni cech w obu metodach polega na minimalizacji odpowiednio skonstruowanego kryterium dipolowego. Do porównania metod wykorzystano indeks Brier’a oraz pośrednią i bezpośrednią miarę jakości predykcji. Eksperymenty wykonane zostały w oparciu o dwa rzeczywiste zbiory danych: pacjentów z pierwotną marskością źółciową wątroby oraz z rakiem płuc. W obu przypadkach wyniki otrzymane dla komitetu drzew regresyjnych były lepsze niż dla komitetu sieci neuronowych. Dotyczyło to zarówno badania jakości całego modelu, do którego wzięte zostały wszystkie dostępne w zbiorze cechy, jak też jakości prognostycznej pojedynczych cech. Natomiast uszeregowanie poszczególnych cech jako czynników ryzyka było podobne w obu metodach. Podsumowując można powiedzieć, że sposób podziału przestrzeni cech zaproponowany w drzewach regresyjnych w lepszy sposób wykorzystuje informacje zawarte w zbiorze uczącym.
In the paper, comparative analysis of ensembles of dipolar neural networks and regression trees was conducted. The techniques are based on the dipolar criterion function. Appropriate formation of dipoles (pairs of feature vectors) allows using them for analysis of censored survival data. As the result the methods return aggregated Kaplan-Meier survival function. The results, obtained by neural networks and regression trees based ensembles, are compared by using Brier score and direct and indirect measures of predictive accuracy.
Rocznik
Tom
Strony
73--83
Opis fizyczny
Bibliogr. 18 poz., Tab.
Twórcy
autor
Bibliografia
- [1] Bobrowski L., Krętowska M., Krętowski M.: Design of neural classifying networks by using dipolar criterions. Proc. of the Third Conference on Neural Networks and Their Applications, Kule, Poland (1997) 689–694
- [2] Cox D.R.: Regression models and life tables (with discussion). Journal of the Royal Statistical Society B 34 (1972) 187–220
- [3] Fleming T.R.: Harrington D.P., Counting Processes and Survival Analysis. John Wiley & Sons, Inc. (1991)
- [4] Graf E., Schmoor C., Sauerbrei W., Schumacher M.: Assessment and comparison of prognostic classification schemes for survival data. Statistics in Medicine 18 (1999) 2529–2545
- [5] Hothorn T., Lausen B., Benner A., Radespiel-TrogerM.: Bagging survival trees. Statistics in medicine 23 (2004) 77–91
- [6] Hothorn T., Buhlmann P., Dudoit S., Molinaro A. M., van der Laan M. J.: Survival ensembles. [URL http://www.bepress.com/ucbbiostat/paper174] U.C. Berkeley Division of Biostatistics Working Paper Series 174 (2005)
- [7] Kalbfleisch J.D., Prentice R.L.: The statistical analysis of failure time data. John Wiley & Sons, New York (1980)
- [8] Kaplan E.L.,Meier P.: Nonparametric estimation from incomplete observations, Journal of the American Statistical Association 5 (1958) 457–481
- [9] Krętowska M.: Dipolar regression trees in survival analysis. Biocybernetics and biomedical engineering 24 (3) (2004) 25–33
- [10] Krętowska M., Bobrowski L.: Artificial neural networks in identifying areaswith homogeneous survival time, L.Rutkowski et al. (Eds.): ICAISC 2004, LNAI 3070, (2004) 1008–1013
- [11] Krętowska M.: Random forest of dipolar trees for survival prediction, L.Rutkowski et al. (Eds.): ICAISC 2006, LNAI 4029, (2006) 909–918
- [12] Krętowska M.: Ensemble of Dipolar Neural Networks in Application to Survival Data, L.Rutkowski et al. (Eds.): ICAISC 2008, LNAI 5097, (2008) 78–88
- [13] Schemper M.: Predictive accuracy and explained variation. Statistics inMedicine 22 (2003) 2299–2308
- [14] Schemper M., Henderson R.: Predictive accuracy and explained variation inCox regression. Biometrics 56 (2000) 249–255
- [15] Ridgeway G.: The state of boosting. Computing Science and Statistics 31 (1999) 1722–1731
- [16] Blake, C., Merz, C.: UCI Repository of machine learning databases [http://www.ics.uci.edu/~mlearn/MLRepository.html], Irvine, CA: Universityof California, Department of Information and Computer Science, 1998.
- [17] Duda O.R., Heart P.E., Stork D.G.: Pattern Classification, Second edition, John Wiley & Sons, 2001.
- [18] Quinlan J.: Induction of decision trees, Machine Learning 1(1), 1986, pp. 81-106.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-BPB2-0036-0011