Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 14

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  histogram
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote A Histogram based Image Quality Index
100%
|
2012
|
tom R. 88, nr 7a
126-129
EN
Image quality evaluation plays a very important role in any image processing application. A number of efforts have been made in the last decade to develop generalized image quality metrics. However, a common and easily applicable image quality measure is yet to be developed. In this paper, a new Histogram-based Image Quality Index (HQI) is proposed for use in place of traditional error summation methods. It can be calculated easily and performs significantly better than the widely used image distortion quality metric Mean Squared Error (MSE). A software release of the proposed image quality measure HQI and examples of its usage on different test images have been made available online: http://www.turgutozal.edu.tr/yyalman/contents/yyalman/files/HQI.zip.
PL
W artykule zaproponowano nową metodę poprawy jakości obrazu nazwaną HQI – Histogram based Image Quality Index. Metoda może zastąpić dotychczas stosowaną metodę sumowania błędów.
2
Content available remote Wykorzystanie histogramu w procesie korekty obrazu cyfrowego
94%
PL
Histogram jest graficznym przedstawieniem wszystkich stopni jasności występujących w obrazie. Histogram każdego obrazu jest unikatowy. Niemniej jednak z jego ogólnych cech można wnioskować o poprawności rejestracji obrazu. W procesie korekty wykorzystuje się go jako źródło informacji o tonach znajdujących się w obrazie. Jego modyfikacja, polegająca na rozciąganiu, przesuwania i wyrównywaniu, pozwala na uzyskanie obrazu, w którym znajdują się wszystkie możliwe jasności, a sam obraz jest postrzegany jako prawidłowo naświetlony.
EN
Histogram is graphical representation of all pixels brightness corresponding to digital image. Nevertheless the accuracy of image registration can be obtained from main features of histogram. In correction process histogram is treated as a source of information about tones appearing in picture. Its modification, containing stretching, shifting and balancing, allows for image tones corrections. Correct image includes all of the tones and is easy to pick for human.
PL
W oparciu o pomiary wykonane na koparkach typu SRs 2000, SRs 1200, KWK 1500 i SchRs 1200 opracowano dla poszczególnych klas urabialności skał histogramy wartości chwilowego obciążenia poziomego koła czerpakowego od siły urabiania. Aproksymować je można obciętym rozkładem normalnym. Wyznaczono parametry rozkładów aproksymujących histrogramy i podano statystyczną zależność ich parametrów od oporów urabiania skały.
EN
Basing on the measurments carried out at SRs2000, SRs 1200, KWK 1500 and SchRs1200 excavators, histograms of momentary horizontal load on the bucket wheel depending on the digging force have been elaborated for particular rock digging classes. They can be approximated with normal distribution. The parameters of the distibution approximating the histograms have been identified and statistic dependence of their parameters on the resistance of rock digging have been given.
4
Content available remote The automatic method for recognition of RTS noise in noise signals
94%
EN
In the paper the automatic and universal system for identi.cation of Random Telegraph Signal (RTS) noise as a non-Gaussian component of the inherent noise signal of semiconductor devices is presented. The system for data acquisition and processing is described. Histograms of the instantaneous values of the noise signals are calculated as the basis for analysis of the noise signal to determine the number of local maxima of histograms and to evaluate the number of RTS noise levels. The presented system does not need supervisor control of identi.cation results.
EN
The paper presents the results of an experiment performed on trademark contour shapes using Point Distance Histogram. One of the important stages in the algorithm is the selection of the number of bins (denoted as r) in the resultant histogram. The experiments explored the influence of this varying value on the recognition results. The main goal was to establish the best value for small binary contour shapes. The template matching was used as the whole approach to the recognition problem.
PL
Artykuł przedstawia wyniki eksperymentu przeprowadzonego z użyciem konturowych kształtów znaków firmowych a oparciu o algorytm Point Distance Histogram. Jednym z ważnych elementów tego algorytmu jest wybór liczby przedziałów (oznaczonej jako r) w wynikowym histogramie. W trakcie eksperymentów badano wpływ zmiennej wartości tego parametru na rezultaty rozpoznawania. Głównym celem badań było ustalenie najlepszych wartości współczynnika r dla małych konturowych kształtów binarnych. Jako ogólne podejście do problemu rozpoznawania wybrano porównywanie ze wzorcami (ang. template matching).
PL
Selektywność zapytania jest parametrem pozwalającym określić spodziewany rozmiar wyniku zapytania. Oszacowanie selektywności wymagane jest do wyznaczania optymalnego sposobu realizacji zapytania. Zadaniem tym zajmuje się moduł optymalizatora SZBD. Obliczanie selektywności jest szczególnie utrudnione w zapytaniach z warunkami wieloatrybutowymi, gdzie potrzebny jest nieparametryczny estymator wielowymiarowego rozkładu wartości atrybutów. Zastosowanie wielowymiarowego histogramu w takiej roli może być zbyt kosztowne pod względem zajętości pamięci, szczególnie w przypadku wysokiej wymiarowości zagadnienia. W takiej sytuacji użyteczne może być podejście wykorzystujące metodę analizy składowych głównych, redukujące wymiarowość. Dodatkowo można zastosować metodę mnożenia selektywności, wyznaczonych niezależnie z jednowymiarowych rozkładów brzegowych, określonych w zredukowanej przestrzeni. Upraszcza to i przyspiesza przedstawioną w artykule metodę szacowania selektywności. W artykule opisano również sposób implementacji zaproponowanego rozwiązania w SZBD Oracle, z wykorzystaniem modułu rozszerzającego działanie optymalizatora zapytań – Oracle Data Cartridge Interface Statistics.
EN
Query selectivity allows to estimate the size of query results. It is required for obtaining the optimal method of query execution. This is a main goal of a query optimizer activities. Selectivity calculations for queries with a complex multi-attribute selection condition require a non-parametric estimator of multi-dimensional probability density function of distribution of table attribute values. Using a multi-dimensional histogram as a representation of multi-dimensional distribution is very space-consuming for high dimensions. The approach based on Principal Component Analysis allows to reduce dimensionality and makes the representation space efficient. Additionally the attribute value independence rule (with multiplicity of simple selectivities) may be used in a dimensions-reduced space so the method of the PCA-based selectivity estimation becomes simpler and more effective. The paper also presents the implementation of the proposed solution in DBMS Oracle as the extension of the query optimizer by using Oracle Data Cartridge Interface Statistics module.
|
2001
|
tom Vol. 22, nr 1
213-226
PL
Artykuł prezentuje system tworzenia dokładnych i przybliżonych histogramów, oparty na koncepcji trójwarstwowej architektury oprogramowania. Przedstawiony został działający system, w którym istnieje możliwość interaktywnej kontroli dokładności przybliżenia. Zaprezentowane zostały cechy głównego komponentu systemu- programu wielowątkowego histogramowego serwera statystycznego. Omówiony został mechanizm próbkowania bazy danych i metody szacowania dokładności przybliżonych histogramów.
EN
The article presents three-tier software architecture of a system for creating accurate and approximte histograms in relational databases. The system gives users a possibility of interactive controlling of accuracy of aproximation. The multithreaded program of histogram server - the main component of statistics system was shown. Some mechanisms of sampling from relational databases and methods of estimation of accuracy of approximate histograms were discussed.
8
Content available remote Analiza odkształcenia napięcia przy pomocy programu Statistica
71%
|
2007
|
tom R. 83, nr 2
24-26
PL
W artykule przedstawiono wykorzystanie programu Statistica w analizie odkształceń napięć. Przy pomocy programu Statistica przeprowadzono przykładową analizę zmian zarejestrowanych wartości THD napięcia oraz do utworzonego w wyniku analizy rozkładu empirycznego dopasowano model rozkładu teoretycznego.
EN
The article presents using Statistica program for voltage distortion analysis. The illustrative analysis of THD voltage values, in the aspect their variations, which were recorded in the memory of microprocessor analyser, was carried out by means of Statistica program. Then theoretical distribution was matched to the analysis results, i.e. empirical distribution.
PL
Artykuł opisuje sposoby obliczania selektywności - parametru wyznaczanego w celu wstępnego oszacowania rozmiaru wyniku zapytania. Wartość tego parametru wykorzystywana jest przez optymalizator zapytań serwera bazy danych w procesie uzyskania możliwie najefektywniejszego sposobu realizacji zapytania. Artykuł prezentuje techniki wyznaczania selektywności, bazujące na histogramowej estymacji jednowymiarowego rozkładu wartości atrybutu.
EN
The paper presents methods of a selectivity value estimation, which is required for a preliminary approximation of a query result size. The selectivity value is used by database management system query optimizer for obtaining the most effective query execution plan. The paper shows selectivity approximation methods based on a histogram estimation of a single-dimensional attribute value distribution.
PL
W artykule przedstawiono metodę określania parametrów podstacji akumulacyjnej przy wykorzystaniu metod modelowania statystycznego.
EN
In the paper a statistical method enabling a determination of the basic parameters of the energy storage substation has been presented. The substation is connected to the DC line supply system and is able to storage the surplus regeneration energy coming from the braking trains.
PL
Oszacowanie selektywności zapytania jest istotnym elementem procesu uzyskiwania optymalnego planu wykonania tego zapytania. Wyznaczenie selektywności wymaga użycia nieparametrycznego estymatora rozkładu wartości atrybutu, na ogół histogramu. Wykorzystanie wielowymiarowego histogramu jako reprezentacji łącznego rozkładu wielowymiarowego jest nieekonomiczne z powodu zajętości pamięciowej takiej reprezentacji. W artykule zaproponowano nową metodę, nazwaną HPCA, oszczędną pod względem zajętości, gdzie rozkład dwuwymiarowy w przybliżeniu może być reprezentowany w postaci zbioru histogramów jednowymiarowych. Metoda HPCA opiera się na transformacji Hougha i metodzie analizy składowych głównych. Dzięki HPCA można uzyskiwać dokładniejsze oszacowania selektywności zapytań niż te, otrzymane przy wykorzystaniu standardowych 2-wymiarowych histogramów.
EN
Query selectivity estimation is an important element of obtaining optimal query execution plan. Selectivity estimation requires a nonparametric estimator of attribute values distribution – commonly a histogram. Using a multidimensional histogram as a representation of a joint multidimensional distribution of attributes values is not space-efficient. The paper introduces a new space-efficient method called HPCA, where a 2-dimesional distribution may be represented by a set of 1-dimensional histograms. HPCA is based on Hough transform and principal component analysis method. Using HPCA commonly gives more accurate selectivity estimation than standard methods based on a 2-dimensional histogram.
12
Content available remote On the generalised affinity coefficient for complex data
48%
EN
This paper concerns the affinity coefficient and extensions for maesuring the similarity between data units in classification, when we are dealing with large and complex databases. More precisely we refer to the extended weighted affinity coefficient and its role in hierarchical classification, when we are dealing with a generalised data table where the cells can contain a set of values, describing a probability distribution, a histogram (frequency distribution), or integer frequencies, for instance, instead one single value. Here we study the case of frequency distributions, since in our approach the other cases appear to be derived as a generalisation (integer frequencies, real data, for instance) or else as a particular case (binary data, ordinal data) of this one. Either the weighted affinity coefficient or the probabilistic associated coefficients can be extended, in the clustering viewpoint, to hierarchical (and non-hierarchical) aggregation criteria and aggregation adaptive (parametric) families. An application to a real case is presented.
Path of Science
|
2016
|
tom 2
|
nr 4(9)
2.109-2.126
UK
Метою статті є дослідження особливостей використання статистичних методів управління якістю логістичних процесів та апробація теоретичних досліджень на крупному промисловому підприємстві. Аналіз літературних джерел показав, що дослі-дженню управління якістю присвячена значна кількість робіт, як українських, так і закордонних авторів, але ж статистичні методи управління якістю були досконало проаналізовані лише незначною частиною науковців, оскільки саме ці методи віднесені до класичних, тобто таких, що вважаються загальновідомими й не потребують додаткової уваги сучасних науковців. Авторське бачення зводиться до того, що логістичний процес є процесом трансформації, переміщення матеріального й супутніх йому потоків шляхом забезпечення управлінської свободи в умовах послідовних взаємозалежностей, стандартизації, синхронізації, спільного використання інформації й узгодженості стимулів, використовуючи інноваційні методи і моделі. В результаті дослідження доведено, що при управлінні логістичними процесами доцільно використовувати такі статистичні методи управління якістю: описова статистика, планування експериментів, перевірка гіпотез, вимірювальний аналіз, аналіз можливостей процесу, регресійний аналіз, аналіз надійності, вибірковий контроль, моделювання, карти статистичного контролю процесу, статистичне призначення допуску, аналіз часових рядів. Проведена апробація використання запропонованих статичних методів управління якістю в логістичних процесах на великому промисловому підприємстві – АТ «Дніпропетровський агрегатний завод», що спеціалізується на виробництві гідророзподільників. Отримані висновки свідчать, що головна мета в області якості логістичних процесів полягає в безперервному поліпшенні виробництва продукції гірничошахтної апаратури та устаткування, що відповідає вимогам і очікуванням замовника на основі застосування інноваційних технологічних процесів, управлінських систем і інформаційних технологій. Доведено, що збільшення інтенсивності виробництва гідророзподільників негативно позначається на якості продукції; для зменшення кількості рекламацій підприємству необхідно збільшить кваліфікацію робітників всіх змін. Перспективами подальших досліджень у даному напрямі є систематизація теоретичних знань і практичних підходів щодо підвищення якості продукції та отримання унікальних конкурентних переваг.
EN
The purpose of the paper is to study the application of statistical methods of logistics process quality management at a large industrial enterprise and testing the theoretical studies. The analysis of the publications shows that a significant number of works by both Ukrainian and foreign authors has been dedicated to the research of quality management, while statistical methods of quality management have only been thoroughly analyzed by a small number of researchers, since these methods are referred to as classical, that is, those that are considered well-known and do not require special attention of modern scholars. In the authors’ opinion, the logistics process is a process of transformation and movement of material and accompanying flows by ensuring management freedom under the conditions of sequential interdependencies; standardization; synchronization; sharing information, and consistency of incentives, using innovative methods and models. In our study, we have shown that the management of logistics processes should use such statistical methods of quality management as descriptive statistics, experiment planning, hypotheses testing, measurement analysis, process opportunities analysis, regression analysis, reliability analysis, sampling, modeling, maps of statistical process control, specification of statistical tolerance, time series analysis. The proposed statistical methods of logistics processes quality management have been tested at the large industrial enterprise JSC "Dniepropetrovsk Aggregate Plant" that specializes in manufacturing hydraulic control valves. The findings suggest that the main purpose in the sphere of logistics processes quality is the continuous improvement of the mining equipment production quality through the use of innovative processes, advanced management systems and information technology. This will enable the enterprise to meet the requirements and expectations of their customers. It has been proved that the increase in intensity of the hydraulic control valve production affects the quality of the products; to reduce the number of complaints, the company needs to improve the skills of workers in all their changes. Prospects for further research in this direction are systematization of theoretical knowledge and practical approaches, which should be aimed at improving the product quality and obtaining unique competitive advantages.
PL
Przedstawiona tutaj pozycja wydawnicza jest obszernym wprowadzeniem do najważniejszych podstawowych zasad, algorytmów i danych wraz zestrukturami, do których te zasady i algorytmy się odnoszą. Przedstawione zaganienia są wstępem do rozważań w dziedzinie informatyki. Jednakże, to algorytmy są podstawą analityki danych i punktem skupienia tego podręcznika. Pozyskiwanie wiedzy z danych wymaga wykorzystania metod i rezultatów z co najmniej trzech dziedzin: matematyki, statystyki i informatyki. Książka zawiera jasne i intuicyjne objaśnienia matematyczne i statystyczne poszczególnych zagadnień, przez co algorytmy są naturalne i przejrzyste. Praktyka analizy danych wymaga jednak więcej niż tylko dobrych podstaw naukowych, ścisłości matematycznej i spojrzenia od strony metodologii statystycznej. Zagadnienia generujące dane są ogromnie zmienne, a dopasowanie metod pozyskiwania wiedzy może być przeprowadzone tylko w najbardziej podstawowych algorytmach. Niezbędna jest płynność programowania i doświadczenie z rzeczywistymi problemami. Czytelnik jest prowadzony przez zagadnienia algorytmiczne z wykorzystaniem Pythona i R na bazie rzeczywistych problemów i  analiz danych generowanych przez te zagadnienia. Znaczną część materiału zawartego w książce mogą przyswoić również osoby bez znajomości zaawansowanej metodologii. To powoduje, że książka może być przewodnikiem w jedno lub dwusemestralnym kursie analityki danych dla studentów wyższych lat studiów matematyki, statystyki i informatyki. Ponieważ wymagana wiedza wstępna nie jest zbyt obszerna,  studenci po kursie z probabilistyki lub statystyki, ze znajomością podstaw algebry i analizy matematycznej oraz po kurs programowania nie będą mieć problemów, tekst doskonale nadaje się także do samodzielnego studiowania przez absolwentów kierunków ścisłych. Podstawowy materiał jest dobrze ilustrowany obszernymi zagadnieniami zaczerpniętymi z rzeczywistych problemów. Skojarzona z książką strona internetowa wspiera czytelnika danymi wykorzystanymi w książce, a także prezentacją wybranych fragmentów wykładu. Jestem przekonany, że tematem książki jest nowa dziedzina nauki. 
EN
The book under review gives a comprehensive presentation of data science algorithms, which means on practical data analytics unites fundamental principles, algorithms, and data. Algorithms are the keystone of data analytics and the focal point of this textbook. The data science, as the authors claim, is the discipline since 2001. However, informally it worked before that date (cf. Cleveland(2001)). The crucial role had the graphic presentation of the data as the visualization of the knowledge hidden in the data.  It is the discipline which covers the data mining as the tool or important topic. The escalating demand for insights into big data requires a fundamentally new approach to architecture, tools, and practices. It is why the term data science is useful. It underscores the centrality of data in the investigation because they store of potential value in the field of action. The label science invokes certain very real concepts within it, like the notion of public knowledge and peer review. This point of view makes that the data science is not a new idea. It is part of a continuum of serious thinking dates back hundreds of years. The good example of results of data science is the Benford law (see Arno Berger and Theodore P. Hill(2015, 2017). In an effort to identifying some of the best-known algorithms that have been widely used in the data mining community, the IEEE International Conference on Data Mining (ICDM) has identified the top 10 algorithms in data mining for presentation at ICDM '06 in Hong Kong. This panel will announce the top 10 algorithms and discuss the impact and further research of each of these 10 algorithms in 2006. In the present book, there are clear and intuitive explanations of the mathematical and statistical foundations make the algorithms transparent. Most of the algorithms announced by IEEE in 2006 are included. But practical data analytics requires more than just the foundations. Problems and data are enormously variable and only the most elementary of algorithms can be used without modification. Programming fluency and experience with real and challenging data are indispensable and so the reader is immersed in Python and R and real data analysis. By the end of the book, the reader will have gained the ability to adapt algorithms to new problems and carry out innovative analysis.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.