Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 21

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  confidence interval
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
When we study any queuing system, the performance measures reflect different features of the system. In the classical M/M/1 queuing system, traffic intensity is perhaps the most important performance measure. We propose a fresh and simple estimator for the same and show that it has nice properties. Our approach is frequentist. This approach has the dual advantage of practical usability and familiarity. Our proposed estimator is attractive as it possesses desirable properties. We have shown how our estimator lends itself to testing of hypothesis. Confidence intervals are constructed. Sample size determination is also discussed. A comparison with a few similar estimators is also performed.
EN
Data envelopment analysis (DEA) is a well-known method that based on inputs and outputs calculates the efficiency of decision-making units (DMUs). Comparing the efficiency and ranking of DMUs in different periods lets the decision-makers prevent any loss in the productivity of units and improve the production planning. Despite the merits of DEA models, they are not able to forecast the efficiency of future periods with known input/output records of the DMUs. With this end in view, this study aims at proposing a forecasting algorithm with a 95% confidence interval to generate fuzzy data sets for future periods. Moreover, managers’ opinions are inserted in the proposed forecasting model. Equipped with the forecasted data sets and concerning the data sets from earlier periods, this model can rightly forecast the efficiency of the future periods. The proposed procedure also employs the simple geometric mean to discriminate between efficient units. Examples from a real case including 20 automobile firms show the applicability of the proposed algorithm.
EN
A wide variety of approaches for set-valued simulation, parameter identification, state estimation as well as reachability, observability and stability analysis for nonlinear discrete-time systems involve the propagation of ellipsoids via nonlinear functions. It is well known that the corresponding image sets usually possess a complex shape and may even be nonconvex despite the convexity of the input data. For that reason, domain splitting procedures are often employed which help to reduce the phenomenon of overestimation that can be traced back to the well-known dependency and wrapping effects of interval analysis. In this paper, we propose a simple, yet efficient scheme for simultaneously determining outer and inner ellipsoidal range enclosures of the solution for the evaluation of multi-dimensional functions if the input domains are themselves described by ellipsoids. The Hausdorff distance between the computed enclosure and the exact solution set reduces at least linearly when decreasing the size of the input domains. In addition to algebraic function evaluations, the proposed technique is-for the first time, to our knowledge-employed for quantifying worst-case errors when extended Kalman filter-like, linearization-based techniques are used for forecasting confidence ellipsoids in a stochastic setting.
EN
In this paper, statistical inferences in material selection of polymer matrix for natural fiber composite are presented. Hypothesis testing and confidence interval were used to evaluate the suitability of the sample for use as a matrix in natural fiber reinforced composites. The screening process for material selection was carried out using a stepwise regression method. Then, the ranking process in material selection was conducted using an estimation of performance score (PS) for mechanical properties such as impact strength (IS), elongation at break (E) and tensile strength (TS). Ten types of polymer were involved in the study. The final selection revealed that polyamide (PA6), polyurethanes (PUR) and polypropylene (PP) are the potential candidates to manufacture hand-brake levers according to IS, E and TS, respectively. Here, it was found that the score for Tp (thermoplastic) is better than Ts (thermoset) in terms of IS. In contrast, the Ts offered a better score result than, Tp, with respect to E and TS. The results of statistical measurements using statistical modelling prove that the data analysis can be used as a part of the decision making in material selection.
PL
Opisano wnioskowanie statystyczne dotyczące wyboru materiału osnowy polimerowej kompozytu z włóknami naturalnymi. Testy hipotez statystycznych i przyjęte przedziały ufności służyły do oceny próbki pod względem przydatności do zastosowania w charakterze osnowy polimerowej w kompozycie wzmocnionym włóknem naturalnym. Selekcji materiałów dokonano przy użyciu metody regresji krokowej, następnie uszeregowano wybrane materiały z wykorzystaniem rankingu oceny (PS) właściwości mechanicznych, takich jak: udarność (IS), wydłużenie przy zerwaniu (E) i wytrzymałość na rozciąganie (TS). Wyselekcjonowano wstępnie 10 rodzajów polimerów zaliczanych do grup polimerów termoplastycznych (Tp) i termoutwardzalnych (Ts). Wnioskowanie statystyczne wykazało, że poliamid (PA6), poliuretany (PUR) i polipropylen (PP) są potencjalnie korzystnymi osnowami polimerowymi do wytwarzania dźwigni hamulca ręcznego. Stwierdzono, że polimery z grupy Tp wykazują lepszą udarność niż polimery z grupy Ts. Natomiast materiały Ts charakteryzują korzystniejsze wartości wydłużenia przy zerwaniu i wytrzymałości na rozciąganie niż ich odpowiedniki z grupy Tp. Wyniki przeprowadzonej analizy danych z zastosowaniem modelowania statystycznego dowodzą, że metoda ta może być pomocna przy wyborze materiału odpowiedniego do planowanej aplikacji.
EN
This paper describes questions, which are connected with possibility of obtaining the dispersion of traction and transport vehicles (TTV) noisiness computation on the stage of its development. Experimental data shows that noise around TTV and at operator workplace has wide dispersion of values for even one model produced by one factory at the same time. It concerns practically every type of TTV – new and with some operating time, at mass, individual and serial producing, and at similar operation conditions. Mathematical functions for determination of dispersion mentioned above in dependence on confidence interval of various sources noisiness were obtained. The general method for assessment of probabilistic dispersion of estimated noisiness results is presented. This general method for probabilistic dispersion of computational evaluation of TTV noisiness consists of next stages: assessment of dispersion (confident interval) of acoustic power of each separate noise source; determination of computational function (choice or compiling formulas for computation); determination of dispersion (confident interval) for sound absorption coefficients and other independent variables; determination of partial derivatives for computational function on each independent variable; obtaining of functional dependence of result dispersion of input factors (arguments); calculating of numerical assessment value of TTV noisiness determination result.
PL
W pracy wykorzystano nowe metody obliczeniowe wykorzystywane do wyznaczania wartości granic wykrywalności (LOD) i oznaczalności (LOQ), zalecane przez międzynarodowe organizacje normalizacyjne IUPAC i ACS, do oznaczenia śladowych ilości miedzi w metodzie FAAS. We wprowadzeniu przedstawiono podstawy teoretyczne standardowych metod statystycznych (SA1, SA2) wykorzystywanych do obliczania granic wykrywalności (LOD) i oznaczalności (LOQ), jak i nowe metody (ULA1, ULA2) wykorzystujące przedział ufności krzywej kalibracyjnej. W celu porównania metod wyznaczania LOD i LOQ w części eksperymentalnej przeprowadzono serie oznaczeń miedzi w metodzie płomieniowej atomowej spektrofotometrii absorpcyjnej w zakresie stężeń 0,0-1,0 mg/L. Obliczenia dla danych eksperymentalnych wykonane zgodnie z metodologią opisanych technik, pozwoliły na uzyskanie zbliżonych wartości granic oznaczalności i wykrywalności miedzi w metodzie FAAS na poziomie odpowiednio 30 mg/L (LOD) i 80-100 mg Cu/L (LOQ) dla wszystkich stosowanych metod. Wyniki uzyskane dla metod stosowanych w pracy są zgodne z danymi literaturowymi.
EN
In this paper new procedures for estimation of limit of detection and quantification recommended by IUPAC and ACS have been applied for determination of copper in FAAS method. In introduction, the theoretical background for standard statistical methods for LOD and LOQ calculation as well as new methods based on upper limit approach has been described. In order to compare presented procedures for calculation of limit of detection and quantification a series of FAAS experimental data for copper in range of 0-1 ppm have been recorded and analyzed. Presented calculations for experimental data according to both presented procedures gave similar results on level of 30 mg Cu/L (LOD) and 80-100 mg Cu/L (LOQ). Experimental results obtained are similar to levels reported in AAS literature.
7
Content available remote Failure duration in distribution networks
EN
The paper deals with statistical analysis of data on faults and failures in electrical power distribution. We used the statistical analysis of both MV overhead and cable lines, and electrical power stations of one distribution company. The data were collected from 2000 to 2009 with focus on the duration of failure with respect to different types of equipment. To compare and analyze the data, we used confidence intervals and also statistical distribution of data-sets.
PL
W artykule analizowano dane statystyczne błędów i defektów w przesyle energii elektrycznej. Wykorzystano dane linii średniego napięcia kablowych i napowietrznych. Dane były zebrane w latach 2000 do 2009.
PL
Celem tej przegladowej pracy jest opis wyników profesora Ryszarda Zielinskiego dotyczacych nieparametrycznych estymatorów kwantyli w skonczonych próbach oraz ich zastosowania w odpornej estymacji parametru połozenia. Główne przesłanie badan Zielinskiego było nastepujace: do estymacji kwantyli nalezy uzywac pojedynczych statystyk pozycyjnych, a juz ich liniowe kombinacje moga byc bardzo niedokładne w duzych modelach nieparametrycznych. Optymalny wybór statystyki pozycyjnej zalezy od kryterium oceny błedu estymacji.
EN
This is a survey paper describing achievements of professor Ryszard Zieliński in the subject of nonparametric estimation of population quantiles based on samples of fixed size, and applications of the quantile estimators in the robust estimation of location parameter. Zielinski assumed that a finite sequence of independent identically distributed random variables X1, . . . ,Xn is observed, and their common distribution function F belongs to the family F of continuous and strictly increasing distribution functions. He considered the family T of randomized estimators XJ:n which are single order statistics based on X1, . . . ,Xn with a randomly determined number J. The random variable J is independent of the sample and has an arbitrary distribution on the numbers 1, . . . , n. It was proved that T is the maximal class of estimators which are functions of the complete and sufficient statistic (X1:n, . . . ,Xn:n), and are equivariant with respect to the strictly increasing transformations, i.e., satisfy T(φ(X1:n), . . . ,φ(Xn:n)) = φ(T(X1:n, . . . ,Xn:n)) for arbitrary strictly increasing φ. A number of examples showed that the estimators that do not belong to T are very inaccurate for some F€F.
9
Content available Statistical analysis of failures
EN
The lifetime distribution is important in reliability studies. There are many situations in lifetime testing, where an item (technical object) fails instantaneously and hence the observed lifetime is reported as a small real positive number. The investigation in this article was motivated by an extended and generalized Weibull distribution. We suggest a mixture of a singular distribution and Weibull distribution. We apply the maximum likelihood method to estimate the parameters of the mixture. The method is illustrated by a numerical example for the time between the failures of bus engines.
10
Content available remote Model for instantaneous failures
EN
The lifetime distribution is important in reliability studies. There are many situations in lifetime testing, where an item (technical object) fails instantaneously; therefore, the observed lifetime is reported as zero. We suggest a mixture of a singular distribution and Weibull distribution. We apply maximum likelihood to estimate parameters of the mixture. The methods are illustrated by a numerical example of the time between the failures for bus engines.
PL
Rozkłady czasów życia są ważne w badaniach niezawodnościowych. Podczas testowania czasów życia istnieje wiele sytuacji, gdy element (obiekt techniczny) ulega natychmiastowemu uszkodzeniu i czas uszkodzenia jest zapisywany jako czas zerowy. Proponuje się mieszaninę rozkładu jednopunktowego i rozkładu Weibulla jako rozkład czasu życia. Do estymacji parametrów mieszaniny stosuje się metodę największej wiarygodności. Metodę zilustrowano przykładem numerycznym czasów między uszkodzeniami silników autobusowych.
11
Content available remote Przedział ufności dla frakcji
EN
Confidence intervals have been invented by Jerzy Spława-Neyman in 1934 (J.Neyman, Journal of the Royal Statistical Society, Vol. 97, No.4. (1934), pp. 558-625). To apply the theory to the binomial case some nomograms or vast tables were needed (C.J.Clopper and E.S.Pearson: Biometrika, Vol. 26, No.4 (Dec.,1934), pp. 404-413) which made the idea far from practical use. An easy to present and motivate and easy to compute remedy was to replace the binomial distribution by its normal approximation; the solution is currently in near universal use. Due to inadequate coverage probability many other alternative intervals have been recommended: an exhaustive and up to date review with a discussion one can find in L.D.Brown, T.T.Cai and A. DasGupta: Statistical Science 2001, Vol. 16, No.2, 101-133. We address the problem in the context of Polish textbooks.
PL
Przedziały ufności zostały wymyślone przez Jerzego Spławę-Neymana w 1934 [15]. Praktyczne zastosowanie teorii Neymana do przedziałowej estymacji prawdopodobieństwa sukcesu w schemacie Bernoulliego (parametru rozkładu dwumianowego) stwarzało jednak pewne trudności zarówno jeśli chodzi o ich konstrukcję (rozkład dyskretny!), jak i o ich numeryczne obliczanie. Jako panaceum wymyślono asymptotyczne przedziały ufności oparte na przybliżaniu rozkładu dwumianowego rozkładem normalnym: konstrukcja i rachunki stają się bardzo proste. Kłopot polega na tym, że w przypadku skończonej próby pojawiają się wtedy trudności z wyznaczeniem przedziału ufności na postulowanym poziomie ufności. Obecnie powszechny dostęp do komputerów i licznych prostych kalkulatorów "kieszonkowych" z funkcjami statystycznymi umożliwia łatwą realizację dokładnych konstrukcji Neymana.
PL
W pracy przedstawiono niektóre problemy pojawiające się w trakcie analizy statystycznej danych pomiarowych spowodowane niezrozumieniem pewnych pojęć z rachunku prawdopodobieństwa, statystyki matematycznej i niejednoznacznością w literaturze przedmiotu.
EN
This paper presents some problems emerging in the process of a statistical analysis of measuring data caused by the incomprehension of certain notions from the probability calculus and mathematical statistics as well as ambiguity in the literature of the subject.
13
Content available remote Analiza statystyczna wytrzymałości płytek ceramicznych - rozkład Weibulla
PL
Przeprowadzono analizę statystyczną (rozkład Weibulla) wytrzymałości na zginanie płytek ceramicznych jako wyrobu oraz materiału, z którego wykonane są płytki. Przedstawiono nowy test niezawodności i wykazano, że badane płytki są statystycznie niezawodne.
EN
Bending strength Weibull analysis of ceramic tiles and materials they were made of was carried out. New reliability test was presented and statistical tiles reliability was proved.
14
Content available remote Metody tworzenia wzorców klasy dla celów rozpoznawania źródeł emisji
PL
Do tworzenia wzorców klas obiektów wykorzystano podstawowe statystyki matematyczne, estymację parametrów oraz podejście minimalnej objętości wzorca elipsoidalnego. Wyniki obliczeń przedstawionych w artykule wzorców klas dla tych samych danych pomiarowych zilustrowano graficznie. Do oceny jakości algorytmu rozpoznawania źródeł emisji zastosowano regułę minimalnej odległości euklidesowej do wzorców klas. Pokazano również sposób użycia współczynników wagowych uwzględniających właściwości dyskryminacyjne parametrów sygnału.
EN
The paper describes the different methods of pattern class forming using the basic mathematical statistics, parameters estimation and approach of minimal ellipsoidal volume. The results of class patterns calculations for the same set data were graphic illustrated. The quality of emitter recognition algorithm examined by using the minimal Euclidean distance to class patterns. Applied also the weighted coefficients taking into consideration discriminant proprieties of emitter signal features.
15
Content available remote Estymacja frakcji
PL
W populacji składającej się z N elementów jest nieznana liczba M elementów wyróżnionych. W artykule w przystępny sposób prezentuję różne problemy związane z estymacją frakcji θ= M/N.
EN
A population of N elements contains an unknown number M of marked units. Problems of estimating the fraction θ = M/N are discussed. The well known standard solution is θ= K/n which is the uniformly minimum variance unbiased estimator, maximum likelihood estimator, estimator obtained by the method of moments, and in consequence it shares all advantages of such estimators. In the paper some versions of the estimator are considered which are more adequate in real situations. If we know in advance that the unknown fraction lies in a given interval (t1, t2) and we consider an estimator θ1 as better than the estimator θ2 if the average of its mean square error is smaller on that interval, then the optimal estimator is given by (3). The values of the estimator for (t1, t2) = (0, 0.5) and for (t1, t2) = (0.3, 0.4) in a sample of size n = 10 if the number of marked units in the sample equals K, are given in the table TABELKA and the mean square errors of these estimator, versus the error of the standard estimator θ = K/n are presented in Rys. 2. Averaging the mean square error with a weight function, for example such as in Rys.3, gives us the Bayesian estimator with the mean square error like in Rys. 4 (for n = 10). If in some real situations we are interested in minimizing the mean square error "in the worst possible case", the adequate is the minimax estimator. Another situation appears if the population can be divided in some more homogenous subpopulations, for example in two subpopulations with fractions of marked units close to zero or close to one in each of them. Then stratified sampling is more effective; then the mean square error of estimation may be significantly reduced. In the paper the problem of randomized responses is also presented, very shortly and elementarily. The problem arises if a unit in the sample can not be for sure recognized as "marked"or "not marked" and that can be done with some probability only. The situation is typical for survey interview: it allows respondents to respond to sensitive issues (such as criminal behavior or sexuality) while remaining confidential. The final section of the paper is devoted to some remarks concerning the confidence intervals for the fraction. The exact optimal solution is well known for mathematicians but it is probably not very easy for statistical practitioners to follow all theoretical details, and typically confidence interval based on asymptotic approximation of the binomial distribution by a normal distribution are used. That is neither sufficiently exact nor correct. The proper and exact solution is given by quantiles of a suitable Beta distribution which are easily computable in typical statistical and mathematical computer packages.
EN
Monte Carlo simulation provides information on the confidence interval of the measurement result. This evaluation applied in Monte Carlo simulation to another measurement where the result of the first measurement represents an input quantity necessitates information on its probability distribution. In the paper it is proposed to furnish this information in a compressed form as an information matrix. The effectiveness of the approach is proven by way of example, where the result of the first measurement has a multimodal probability distribution.
PL
Symulacja Monte Carlo dostarcza informacji o przedziale ufności wyniku pomiaru. Wykorzystanie tej oceny w symulacji Monte Carlo dotyczącej innego pomiaru, w którym wynik pierwszego pomiaru jest wielkością wejściową, wymaga informacji o rozkładzie prawdopodobieństwa wyniku tego pierwszego pomiaru. Zaproponowano skompresowaną formę tej informacji w postaci macierzy informacyjnej. Za pomocą przykładu, w którym wynik pierwszego pomiaru ma wielomodalny rozkład prawdopodobieństwa, wykazano skuteczność proponowanego przekazu informacji.
PL
W artykule omówiono określanie przedziału ufności dla opóźnienia wyznaczanego z fazy wzajemnej gęstości widmowej mocy w przypadku, gdy znane są parametry sygnałów pomiarowych i zakłócających.
EN
This article presents the method of computing the exact confidence interval for time delay obtained from phase of cross-spectral density function when parameters of signals are known.
19
Content available remote Non-linear regression of the term structure model
PL
W artykule opracowano elementy metody automatycznego szacowania krzywej dochodowości papierów skarbowych i struktury terminowej stóp procentowych na podstawie codziennych notowań tych papierów na rynkach wtórnych. Zaproponowano funkcję nieliniową jako model regresji nieliniowej, dla której podano warunki spełnienia przez estymatory pożądanych własności: zgodności, asymptotycznej normalności, efektywności. Opracowano również metodę wstępnej weryfikacji modelu empirycznego. Dodatkowo wskazano na możliwość zastosowania lepszych oszacowań macierzy wariancji-kowariancji wektora estymatorów parametrów w przypadku małych prób. Dla krzywej regresji skonstruowano przedział ufności. Uzyskane wyniki zobrazowano przykładami dla rzeczywistych danych liczbowych.
EN
This article presents elements of algorithm for automatically estimation of interest rate and yield curve model based on daily market bond prices issued by government. To construction these curves is proposed non-linear function as a regression model. Conditions for consistency allowed to construct verification method to selection the best regression equation. In situation of small sample can be used, proposed here a better estimation of variance-covariance matrix of estimators. Additionally, confidence interval is constructed for regression curve in the case large and small sample. Effect of obtained results are shown in numerical examples.
20
Content available remote Dokładność pomiarów na stanowisku badawczym do oceny stanu olejów smarowych
PL
W artykule przedstawiono rezultaty statystycznej analizy dokładności pomiarów odpowiedzi prądowej na skok napięcia, przeprowadzonch na stanowisku badawczym do oceny stanu olejów smarowych.
EN
The paper presents statistical analysis results of current accurace measurements on research stand for lubricant oil condition identificiation. The reasons of measurement errors that effects on accuracy wery discused.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.