Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 10

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  algorytm EM
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Magnetic resonance imaging (MRI) is effectively used for accurate diagnosis of acute ischemic stroke. This paper presents an automated method based on computer aided decision system to detect the ischemic stroke using diffusion-weighted image (DWI) sequence of MR images. The system consists of segmentation and classification of brain stroke into three types according to The Oxfordshire Community Stroke Project (OCSP) scheme. The stroke is mainly classified into partial anterior circulation syndrome (PACS), lacunar syndrome (LACS) and total anterior circulation stroke (TACS). The affected part of the brain due to stroke was segmented using expectation-maximization (EM) algorithm and the segmented region was then processed further with fractional-order Darwinian particle swarm optimization (FODPSO) technique in order to improve the detection accuracy. A total of 192 scan of MRI were considered for the evaluation. Different morphological and statistical features were extracted from the segmented lesions to form a feature set which was then classified with support vector machine (SVM) and random forest (RF) classifiers. The proposed system efficiently detected the stroke lesions with an accuracy of 93.4% using RF classifier, which was better than the results of the SVM classifier. Hence the proposed method can be used in decision-making process in the treatment of ischemic stroke.
PL
Metoda największej wiarygodności (MLE) służy do estymacji parametrów modelu statystycznego dla zadanych danych. Metoda ta pozwala na estymację nieznanych parametrów modelu statystycznego. Parametry te otrzymuje się poprzez maksymalizację funkcji wiarygodności rozważanego modelu. Często w praktyce metoda ta może jednak nastręczać trudności związane z wielomodalnością funkcji wiarygodności oraz niemożnością uzyskania jawnych analitycznych rozwiązań równań wiarygodności. Równania takie można jedynie rozwiązywać za pomocą metod numerycznych. Trudności te dobrze ilustruje estymacja parametrów rozkładu Weibulla z wykorzystaniem metody największej wiarygodności wykonywana w oparciu o prawostronnie cenzurowane dane z eksploatacji. Rozwiązanie przedstawione w niniejszej pracy opiera się na zastosowaniu algorytmu maksymalizacji wartości oczekiwanej (EM). Możliwości aplikacyjne proponowanej metodyki badano na przykładzie danych eksploatacyjnych uzyskanych z przedsiębiorstwa petrochemicznego, dotyczących awarii pięciu pomp odśrodkowych.
EN
The maximum-likelihood estimation (MLE) is a method of estimating the parameters of a statistical model for given data. This method allows us to estimate the unknown parameters of a statistical model. These parameters are obtained by maximizing the likelihood function of the model in question. In many practical situations the likelihood function is associated with complex models and the likelihood equation has no explicit analytical solution, it is only possible to have its resolution through numerical methods. The estimation of the parameters of the Weibull distribution by maximum-likelihood method based on information from a historical record with right censored data shows this difficulty. The solution presented in this article entails using the Expectation-Maximization (EM) algorithm. Actual data from the historical record of 5 centrifugal pumps failures of a petrochemical company were analyzed for application of the methodology.
PL
W ostatnich latach wiele badań i publikacji poświęcono analizie, występujących w różnych środowiskach, sygnałów szumowych. Efektywne przetwarzanie tych szerokopasmowych zakłóceń wymaga jednak znacznej mocy obliczeniowej, którą dysponują współczesne procesory o architekturze masowo-równoległej. W artykule przedstawiono implementację algorytmu EM, wykorzystywanego do estymacji i generacji sygnałów szumowych, zrealizowaną na procesorze graficznym (GPU - graphics processing unit).
EN
A large number of researchers have been studied the characteristics of noise processes encountered in different environments. Efficient processing of the wideband disturbances demands the computational performance, which can be delivered by the massively parallel processors. The paper presents an implementation of the EM algorithm for estimating and generating signals with an arbitrary probability density function on a graphics processing unit (GPU).
PL
W artykule zaprezentowano i porównano algorytmy do rozpoznawania mowy w kontekście ich późniejszej implementacji na platformie sprzętowej DSK OMAP. Głównym zadaniem było dogłębne porównanie dwóch klasycznych metod wykorzystywanych w rozpoznawaniu mowy GMM vs HMM (ang. GMM Gaussian Mixtures Models, ang. HMM – Hidden Markov Models). W artykule jest również opisana i porównana metoda ulepszonych mikstur gaussowskich GMM-UBM (ang. GMM UBM – Gaussian Mixtures Model Universal Background Model). Parametryzacja sygnału w oparciu o współczynniki MFCC oraz LPCC (ang. Mel Frequency Cepstral Coefficients, ang. Linear Prediction Cepstral Coefficients) została opisana [1]. Analizowany model składał się ze zbioru 10-elementowego reprezentującego cyfry mowy polskiej 0-9. Badania zostały przeprowadzone na zbiorze 3000 nagrań, które zostały przygotowane przez nasz zespół. Porównanie wyników wykonano dla rozłącznych zbiorów uczących oraz trenujących. Każda z opisywanych metod klasyfikacji operuje na tych samych danych wejściowych. Daje to możliwość miarodajnego porównania jakości tych klasyfikatorów jako skutecznych narzędzi do rozpoznawania izolowanych fraz głosowych.
EN
This paper presents and compares the speech recognition algorithms in the context of their subsequent implementation on the hardware platform OMAP DSK. The main task was to compare two classical methods used in speech recognition systems GMM vs HMM (GMM – Gaussian Mixtures Models, HMM – Hidden Markov Models). In the article improved Gaussian Mixtures Model called GMM-UBM (Gaussian Mixtures Model Universal Background Model) were described and compared. Preprocessing of the input signal using MFCC and LPCC coefficients (Mel Frequency Cepstral Coefficients, Linear Prediction Cepstral Coefficients) were described [1]. Analyzed data model consists set of 10-elements that represents Polish language digits 0-9. Research is done on a set of 3000 records prepared by our team with disjoint sets of learners and trainees. Methods are compared on the same input data. The same set of input data allows for reliable comparison of these classifiers to choose effective classifier for identifying isolated voice phases.
EN
A popular expectation maximization algorithm that is widely used in modern data processing systems to solve various problems including optimization and parameter estimation is considered in the paper. The task of the study was to enhance effectiveness of the algorithm execution in time. An enhancement of execution rate for the EM algorithm using multicore architecture of modern computer systems was carried out. Necessary modifications aimed at better parallelism were proposed for implementation of the EM algorithm. An efficiency of the software implementation was tested on the classic problem of Gaussian random variables mixture separation. It is shown that in the mixture separation problem EM algorithm performance degrades when the distance between mean values of distributions is less than three standard deviations, which is totally in the spirit of three sigma law. In such cases, it is very important to have an efficient EM algorithm implementation to be able to process such test cases in a reasonable time.
PL
W artykule opisany jest popularny algorytm EM (expectation maximization), który jest powszechnie stosowany w nowoczesnych systemach przetwarzania danych do rozwiązywania różnych problemów, w tym optymalizacji i estymacji parametrów. Celem badań było zwiększenie efektywności czasu wykonywania algorytmu. Zwiększenie szybkości wykonania algorytmu EM użyto wielordzeniowy architektury nowoczesnych systemów komputerowych. Zostały zaproponowane niezbędne modyfikacje mające na celu lepszą równoległość realizacji algorytmu EM. Skuteczność implementacji programu była testowana na klasycznym problemie separacji Gaussowskich zmiennych losowych. Wykazano, że w przypadku rozdziału mieszaniny wydajność algorytmu EM ulega degradacji, kiedy odległość między średnimi wartościami rozkładu wynosi mniej niż trzy odchylenia standardowe, co jest całkowicie zgodnie z regułą trzech sigm. W takich przypadkach, jest bardzo ważne, aby mieć efektywną realizację algorytmu EM móc przetworzyć takie przypadki w rozsądnym czasie.
6
Content available remote Missing data analysis in cyclostationary models
EN
In recent years, there has been a growing interest in modeling cyclostationary time series. The survey of Gardner and others [5] is quoting over 1500 different recently published papers that are dedicated to this topic. Data that can be reasonable modeled with such time series is often incomplete. To our knowledge, no systematic research has been conducted on that problem. This paper attempts to fill this gap. In this paper we propose to use EM algorithms to extend estimation for situation when some observations are missing.
PL
W ostatnim czasie wzrasta zainteresowanie modelowaniem cyklostacjonarnych szeregów czasowych. W pracy Gardner i inni [5] cytowane jest ponad 1500 publikacji poświęconych temu zagadnieniu. Jednakże dane, dla których model cyklostacjonarny jest zasadny, są często niekompletne. Zgodnie z nasza wiedza nie było do tej pory systematycznego omówienia tego problemu. Celem niniejszego artykułu jest uzupełnienie tej luki. W artykule proponujemy wykorzystanie algorytmu EM w celu estymacji parametrów modelu w sytuacji brakujących obserwacji.
EN
In the paper the problem of learning of Gaussian mixture models (GMMs) is considered. A new approach based on hybridization of a self-adaptive version of differential evolution (DE) with the classical EM algorithm is described. In this approach, called DEEM, the EM algorithm is run until convergence to fine-tune each solution obtained by the mutation and crossover operators of DE. To avoid the problem with parameter representation and infeasible solutions we use a method in which the covariance matrices are encoded using their Cholesky factorizations. In a simulation study GMMs were used to cluster synthetic datasets differing by a degree of separation between clusters. The results of experiments indicate that DE-EM outperforms the standard multiple restart expectation-maximization algorithm (MREM). For datasets with high number of features it also outperforms the state of-the-art random swap EM (RSEM).
PL
W pracy poruszono problem uczenia modeli mieszanin rozkładów normalnych. Zaproponowano nowe podejście, nazwane DE-EM, oparte na hybrydyzacji samoadaptacyjnego algorytmu ewolucji różnicowej i klasycznego algorytmu EM. W nowej metodzie rozwiązanie otrzymane jako wynik operatorów mutacji i krzyżowania jest poddawane optymalizacji lokalnej, prowadzonej aż do momentu uzyskania zbieżności, przez algorytm EM. Aby uniknąć problemu z reprezentacją macierzy kowariancji i niedopuszczalności rozwiązań użyto metody, w której macierze kowariancji są kodowane przy pomocy dekompozycji Cholesky’ego. W badaniach symulacyjnych modele mieszanin rozkładów normalnych zastosowano do grupowania danych syntetycznych. Wyniki eksperymentów wskazują, że metoda DE-EM osiąga lepsze wyniki niż standardowa technika wielokrotnego startu algorytmu ˙ EM. Dla zbiorów danych z dużą liczbą cech, metoda osiąga lepsze wyniki niż technika losowej wymiany rozwiązań połączona z algorytmem EM.
EN
A basic approach to estimation of mixture model parameters is by using expectation maximization (EM) algorithm for maximizing the likelihood function. However, it is essential to provide the algorithm with proper initial conditions, as it is highly dependent on the first estimation (“guess”) of parameters of a mixture. This paper presents several different initial condition estimation methods, which may be used as a first step in the EM parameter estimation procedure. We present comparisons of different initialization methods for heteroscedastic, multi-component Gaussian mixtures.
PL
Algorytm EM (ang. expectation-maximization) jest szeroko stosowanym rozwiązaniem problemu estymacji parametrów mieszanin rozkładów prawdopodobieństwa poprzez maksymalizację wiarygodności. Istotne znaczenie dla działania algorytmu mają parametry początkowe, stanowiące pierwsze przybliżenie badanej mieszaniny. Publikacja przybliża kilka metod wyznaczania warunku początkowego dla iteracji algorytmu EM oraz porównuje ich skuteczność dla przypadku heteroscedastycznych, wieloskładnikowych mieszanin rozkładów normalnych.
EN
In the paper the problem of parameter estimation of finite mixture of multivariate Gaussian distributions is considered. A new approach based on differential evolution (DE) algorithm is proposed. In order to avoid problems with infeasibility of chromosomes our version of DE uses a novel representation, in which covariance matrices are encoded using their Cholesky decomposition. Numerical experiments involved three version of DE differing by the method of selection of strategy parameters. The results of experiments, performed on two synthetic and one real dataset indicate, that our method is able to correctly identify the parameters of the mixture model. The method is also able to obtain better solutions than the classical EM algorithm. Keywords: Gaussian mixtures, differential evolution, EM algorithm.
PL
W artykule rozważono problem uczenia parametrów skończonej mieszaniny wielowymiarowych rozkładów normalnych. Zaproponowano nową metodę uczenia opartą na algorytmie ewolucji różnicowej. W celu uniknięcia problemów z niedopuszczalnością chromosomów algorytm ewolucji różnicowej wykorzystuje nową reprezentację, w której macierze kowariancji są reprezentowane przy pomocy dekompozycji Cholesky’ego. W eksperymentach wykorzystano trzy wersje algorytmu ewolucji różnicowej różniące się metodą˛ doboru parametrów. Wyniki eksperymentów, przeprowadzonych na dwóch syntetycznych i jednym rzeczywistym zbiorze danych, wskazują że zaproponowana metoda jest w stanie poprawnie identyfikować parametry modelu. Metoda ta osiąga również lepsze wyniki niż klasyczyny algorytm EM.
EN
A haplotype analysis is becoming increasingly important in studying complex genetic diseases. Various algorithms and specialized computer software have been developed to statistically estimate haplotype frequencies from marker phenotypes in unrelated individuals. However, currently there are very few empirical reports on the performance of the methods for the recovery of haplotype frequencies. One of the most widely used methods of haplotype reconstruction is the Maximum Likelihood method, employing the Expectation-Maximization (EM) algorithm. The aim of this study is to explore the variability of the EM estimates of the haplotype frequency for real data. We analyzed haplotypes at the BLM, WRN, RECQL and ATM genes with 8-14 biallelic markers per gene in 300 individuals. We also re-analyzed the data presented by Mano et al. (2002). We studied the convergence speed, the shape of the loglikelihood hypersurface, and the existence of local maxima, as well as their relations with heterozygosity, the linkage disequilibrium and departures from the Hardy-Weinberg equilibrium. Our study contributes to determining practical values for algorithm sensitivities.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.