Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  linear classifier
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Fast statistical model-based classification of epileptic EEG signals
EN
This paper presents a supervised classification method to accurately detect epileptic brain activity in real-time from electroencephalography (EEG) data. The proposed method has three main strengths: it has low computational cost, making it suitable for real-time implementation in EEG devices; it performs detection separately for each brain rhythm or EEG spectral band, following the current medical practices; and it can be trained with small datasets, which is key in clinical problems where there is limited annotated data available. This is in sharp contrast with modern approaches based on machine learning techniques, which achieve very high sensitivity and specificity but require large training sets with expert annotations that may not be available. The proposed method proceeds by first separating EEG signals into their five brain rhythms by using awavelet filter bank. Each brain rhythm signal is then mapped to a low-dimensional manifold by using a generalized Gaussian statistical model; this dimensionality reduction step is computationally straight-forward and greatly improves supervised classification performance in problems with little training data available. Finally, this is followed by parallel linear classifications on the statistical manifold to detect if the signals exhibit healthy or abnormal brain activity in each spectral band. The good performance of the proposed method is demonstrated with an application to paediatric neurology using 39 EEG recordings from the Children's Hospital Boston database, where it achieves an average sensitivity of 98%, specificity of 88%, and detection latency of 4 s, performing similarly to the best approaches from the literature.
2
Content available Nonparametric methods of supervised classification
EN
Selected nonparametric methods of statistical pattern recognition are described. A part of them form modifications of the well known k-NN rule. To this group of the presented methods belong: a fuzzy k-NN rule, a pair-wise k-NN rule and a corrected k-NN rule. They can improve classification quality as compared with the standard k-NN rule. For the cases when these modifications would offer to large error rates an approach based on class areas determination is proposed. The idea of class areas can be also used for construction of the multistage classifier. A separate feature selection can be performed in each stage. The modifications of the k-NN rule and the methods based on determination class areas can be too slow in some applications, therefore algorithms for reference set reduction and condensation, for simple NN rule, are proposed. To construct fast classifiers it is worth to consider also a pair-wise linear classifiers. The presented idea can be used as in the case when the class pairs are linearly separable as well as in the contrary case.
EN
The two kinds of classifier based on the k-NN rule, the standard and the parallel version, were used for recognition of severity of ALS disease. In case of the second classifier version, feature selection was done separately for each pair of classes. The error rate, estimated by the leave one out method, was used as a criterion as for determination the optimum values of k's as well as for feature selection. All features selected in this manner were used in the standard and in the parallel classifier based on k-NN rule. Furthermore, only for the verification purpose, the linear classifier was applied. For this kind of classifier the error rates were calculated by use the training set also as a testing one. The linear classifier was trained by the error correction algorithm with a modified stop condition. The data set concerned with the healthy subjects and patients with amyotrophic lateral sclerosis (ALS). The set of several biomarkers such as erythropoietin, matrix metalloproteinases and their tissue inhibitors measured in serum and cerebrospinal fluid (CSF) were treated as features. It was shown that CSF biomarkers were very sensitive for the ALS progress.
EN
Stocks, indexes, commodities, and precious metals price prediction is a difficult task where many approaches are used: traditional technical analysis, econometric time series or modern data mining techniques. One particular data mining technique - linear classifier is described in this article. Prediction based on linear classifier is done using current market state, which can be described by various data sets (attributes, features). The simplest form of this model could use data from yesterday’s price movement. Advanced models are using more historical price movements. Very advanced models include various historical price movements for indexes from other countries and other instruments like currencies, commodities, etc. Using more features requires extended time to estimate model parameters.We build the linear classifier models by the minimisation of a convex and piecewise-linear function which is very efficient comparing to other functions. Computational costs for building the model are similar to linear programming. We also use feature selection method called RLS. Those techniques allow us to explore data with many features. Four scenarios are considered, in each scenario a different amount of market data is used to create a model. In the simplest scenario only one day’s change in price is taken, in the most complicated one 421 historical prices of 43 different instruments are taken. Best results were achieved by using middle range of 52 attributes. In this scenario, the model was right 53.19% times. Meaning the directions of daily change in S&P500 index (up or down) were predicted correctly. This doesn’t seem a lot, but if those predictions would have been used for investing, they could produce a total profit of 77% in the tested time period from November 2008 to March 2011 (2 years 4 months), or an average of 28% per year.
PL
Prognozowanie cen akcji i wartośsci indeksów giełdowych jest zadaniem trudnym, dla którego użzywanych jest wiele różnych podejść. Artykuł ten przedstawia wprowadzenie do pewnych standardowych technik. Przedstawiona została tradycyjna analiza techniczna, ekonometryczne modele szeregów czasowych oraz współczesne metody eksploracji danych. Jedna z metod eksploracji danych, klasyfikator liniowy został przedstawiony bardziej szczegółowo. Został on użyty w przeprowadzonym eksperymencie do prognozowania wartości indeksu giełdy amerykańskiej. Prognozowanie takie oparte jest o dane opisujące obecny stan giełdy. Stan giełdy można opisać różną ilością danych (atrybutów, cech). W najprostszym przypadku może to być tylko jednodniowa zmiana ceny prognozowanego indeksu. W bardziej rozbudowanym modelu można użyć wielu cen historycznych. W modelu jeszcze bardziej rozbudowanym można użyć danych z innych giełd, kursów walut, cen towarów jak np. ropa. Użycie dużej ilości danych wymaga dłuższego czasu obliczeń parametrów modelu. W prezentowanym podejściu klasyfikator liniowy budowany jest w oparciu o minimalizację wypukłej i odcinkowo-liniowej funkcji kryterialnej. Metoda ta jest bardzo wydajna o koszcie zbliżonym do programowania liniowego. Dodatkowo użyta została metoda selekcji cech RLS. Techniki te pozwoliły na efektywną eksplorację danych o wielu wymiarach. W artykule przedstawiono cztery scenariusze o różnej ilości danych opisujących giełdę. W najprostszym użyto tylko jednej danej, w najbardziej rozbudowanym 421 danych o 43 instrumentach finansowych. Najlepsze wyniki uzyskano dla pośredniego modelu o 52 cechach, w którym model przewidział prawidłowo 53.19% kierunków dziennych zmian indeksu S&P500. Otrzymany wynik nie wydaje się być wysoki, jednak gdyby inwestowano w indeks zgodnie z modelem zysk z takich inwestycji wyniósłby 77% w okresie od października 2008 do marca 2011, dając średnio 28% zysku rocznie.
EN
This article describe the linear classifier based on convex and piecewise-linear function (CPL) and it application to market prediction. In an experiment we use CPL linear classifier to predict direction of one day change in stock index price. We use classification approach to predict only direction of change (grow or decline) of the index, not it quantity as in regression approach. Total number of instruments used in experiment including currencies is 42. Prediction of one index is based on historical prices of all 42 indexes. Using 7 historical values for each index it produce 294 attributes. Such high dimensional feature space was reduced by feature selection method - relaxed linear separability (RLS). Details of this methodology are also presented. Features was selected and model was build on training data. Test data (holdout data) was used for checking model accuracy. Model in average correctly classify (predict) 51.9 per cent direction of daily index changes.
PL
W artykule opisano klasyfikator liniowy oparty o wypukłe i odcinkowo-liniowe funkcje kary (CPL) i jego zastosowanie w prognozowaniu giełdy. W przeprowadzonym eksperymencie klasyfikator liniowy CPL został użyty do prognozy kierunku jednodniowej zmiany indeksów giełdowych. W zastosowanym podejściu klasyfikacyjnym prognozowano jedynie kierunek zmian (wzrost lub spadek), a nie dokładną wartość indeksu (podejście regresyjne). W eksperymencie użyto 42 instrumentów finansowych, w tym m.in. kursów walut. Jednodniowa prognoza wybranego instrumentu budowana jest w oparciu o wartości historyczne wszystkich 42 instrumentów. Używając 7 danych historycznych dla każdego instrumentu, uzyskano w sumie 294 atrybuty. Tak wielowymiarowa przestrzeń została zredukowana metodą selekcji cech opartą o relaksację liniowej separowalności. Metoda ta została opisana szczegółowo. Selekcja cech i budowa modelu w wybranej podprzestrzeni została przeprowadzona na zbiorze uczącym (treningowym). Natomiast ocena modelu została przeprowadzona na zbiorze testowym. Otrzymany wynik to średnio 51.9 procent prawidłowo sklasyfikowanych (prognozowanych) dziennych zmian indeksów giełdowych.
6
Content available remote Algorithms for investigation of strict linear separability of two sets
EN
The article describes an algorithm which allows one to check if there exists a hyperplane separating two finite sets in an Euclidean space and, if it exists, to determine such a hyperplane. The algorithm presented is a very important tool for construction pattern recognition systems using piece-linear classifiers.
PL
W artykule przedstawiono algorytmy, które pozwalają zbadać czy istnieje hiperpłaszczyzna rozdzielająca dwa zbiory skończone w przestrzeni euklidesowej i ewentualnie wyznaczyć taką hiperpłaszczyznę. Prezentowany algorytm stanowi bardzo ważne narzędzie konstruowania klasyfikatorów odcinkowo-liniowych stosowanych w systemach rozpoznających.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.