Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Ograniczanie wyników
Czasopisma help
Lata help
Autorzy help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 209

Liczba wyników na stronie
first rewind previous Strona / 11 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  eksploracja danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 11 next fast forward last
EN
This paper examines the objective assumptions for Data Mining Process standardization, which simplifies integration of Information Systems with Data Mining models. In doing so it provides an overviev of the most important characteristics of Cross Industry Standard Process Model of Data Mining (CRISP-DM), Application Programming Interface OLE DB for Data Mining (API OLE DB DM), and Predictive Model Markup Language (PMML). These standards have essential impact on Information Technology development.
PL
Artykuł przedstawia obiektywne założenia standardyzacji procesu eksploracji danych. Standardyzacja upraszcza integrację systemów informacyjnych z modelami eksploracji danych. Przedstawiono charakterystyki CRISP-DM, API OLE DB DM oraz PMML. Standardy te mają istotny wpływ na rozwój technologii informatycznej.
PL
Atrybuty zawierające zbiory są naturalnym i wygodnym sposobem modelowania złożonych obiektów świata rzeczywistego. Współczesne relacyjno-obiektowe systemy baz danych umożliwiają przechowywanie zbiorów w postaci pojedynczych atrybutów oraz wspierają w określonym zakresie wydawanie zapytań dotyczących takich atrybutów. Efektywne wykonywanie zapytań w systemie bazy danych jest możliwe między innymi dzięki indeksom, które wydatnie przyspieszają dostęp do danych. W pierwszej części niniejszej pracy przedstawiono przegląd aktualnie dostępnych technik indeksowania zbiorów. W kolejnej części, przedstawiono propozycję nowego indeksu dla baz danych przechowujących zbiory, tj. hierarchicznego indeksu bitmapowego, wspierającego wykonywanie zapytań o nadzbiory, podzbiory, zbiory identyczne, zbiory podobne, jak również uogólnione wersje tych zapytań.
EN
Set attributes are a natural and convenient means for modelling complex objects of the real world. Modern object-relational database systems enable us to store sets as single attributes and provide a limited support for queries on such attributes. Effective execution of queries in database systems is possible due to index structures, which considerably speed up data access In the first part of this paper we make a short revision of already existing set indexing techniques. In the second part we introduce a novel index for set attributes called Hierarchical Bitmap Index, which supports subset, superset, equality and similarity queries, as well as generalized versions of these queries.
PL
Artykuł ma charakter teoretyczno-badawczy. Przedmiotem rozważań teoretycznych są zagadnienia związane z kierunkami doskonalenia współczesnych organizacji oraz problematyka jakości nawoju w procesie konfekcjonowania etykiet termokurczliwych. Poruszono również tematykę eksploracji danych z zastosowaniem sztucznych sieci neuronowych. Implikacje praktyczne wynikają z przeprowadzenia badań wstępnych i budowy modelu sztucznej sieci neuronowej na danych historycznych w wybranej firmie produkcyjnej oraz analizie uzyskanych wyników. Istotą zastosowania metody eksploracji danych było zbadanie, czy jest ona w stanie odtworzyć bardzo skomplikowane zależności w procesie produkcyjnym, co zostało potwierdzone w toku przeprowadzonych badań. Podjęta tematyka wydaje się być istotna, ponieważ w dobie gdy firmy szukają funkcjonalnych i mało kosztowych rozwiązań, metody eksploracji danych, takie jak zaprezentowana w niniejszym artykule, stanowią skuteczne narzędzie w celu usprawniania kluczowych dla przedsiębiorstw procesów.
PL
W artykule zostało przedstawione modelowanie predykcyjne na przykładzie równoległej hybrydy regresyjnej. Przeprowadzone obliczenia jednoznacznie potwierdzają uniwersalność w wykorzystaniu rozwiazań hybrydowych i wskazują na synergie powstającą przy umiejętnym połączeniu ze soba kilku metod. Oczywiście nie wszystkie połączone modele umożliwiają uzyskanie dobrych wyników. Dobór metod do hybrydy powinien z jednej strony brać pod uwagę różnorodność metod, z drugiej strony również poprawność uzyskiwanych wyników przez pojedyncze metody. Wybór metod składowych o skrajnie słabej efektywności i wydajności może wpłynąć na wyniki uzyskiwane przez samą hybrydę. Nie ma niestety gotowych rozwiazań, w takich wypadkach należy kierować się intuicją i doświadczeniem oraz wynikami eksperymentów przygotowawczych. W przyszłości autor planuje opracować i wdrożyć hybrydę w pełni zintegrowaną, która w inteligentny sposób będzie współdzielić struktury danych i reprezentowaną wiedzę. Zastosowanie takiego modelu hybrydowego na pewno wpłynie na wysoki ostateczny wynik tego rozwiązania.
EN
The article presents functioning of many methods at the same time as a Parallel Regression Hybrid. An intention of this hybrid application in prediction modeling is using strengths of applied methods and exclusion of weaknesses. Described Parallel Regression Hybrid was applied for prediction of wine taste.
PL
Przedstawiono analizę przydatności wybranych implementacji pewnych technologii do realizacji procesu akwizycji wiedzy dla modelu wiedzy systemu ekspertowego o charakterze probabilistycznym. Zaprezentowano koncepcję, a także praktyczną realizację (studium przypadku) wykorzystania metod eksploracji danych oraz technologii OLAP w procesie pozyskiwania wiedzy dla systemu ekspertowego. Praktyczna realizacja nawiązuje do badań, w których wykorzystano rzeczywistą bazę danych o zarejestrowanych przypadkach zakażeń szpitalnych w polskich szpitalach, system ekspertowy oparty o shell BayEx i implementację metod eksploracji danych oraz OLAP udostępnianych przez pakiety DB2 Intelligent Miner for Data, a także DB2 Data Warehouse Center firmy IBM.
6
Content available remote Analiza dużych zbiorów danych
88%
PL
Obecnie prawie każdy proces, w tym produkcyjny, generuje ogromne ilości danych. Gromadzimy je, czy jednak potrafimy odpowiednio wykorzystać? Jest to szczególnie ważne w kontekście Przemysłu 4.0, w którym dane są najważniejszym „surowcem”, a efektywne ich wykorzystanie jest kluczowe, głównie za sprawą wiedzy, którą można z nich pozyskać.
7
75%
PL
W artykule przedstawiono w sposób ogólny metodykę szacowania długości okresu planowania. Do szacowania długości okresu planowania wykorzystano wybrane techniki eksploracji danych, w szczególności regresję i klasyfikację. Opisano metody szacowania czasu realizacji zleceń produkcyjnych występujące w literaturze. Sklasyfikowano oraz wymieniono najczęściej stosowane techniki i metody eksploracji danych. Na koniec ogólnie opisano algorytm SDOP do szacowania długości okresu planowania.
EN
Methodology of time period estimation is depicted in this paper. Selected techniques of data mining such as regression and classification are exploited to time period estimation. A review of lead time estimation methods is presented as well as an overview of data mining techniques and methods. Finally, a new algorithm called SDOP for time period estimation is briefly described.
PL
Artykuł zawiera opis przykładu użycia metod eksploracji danych do wykrywania nadużyć w systemach biznesowych IT. Przedstawiono wybrane metody eksploracyjne – k-najbliższych sąsiadów, drzewa wzmacniane, sieci neuronowe, drzewa CHAID, drzewa C&RT, MARSplines. Metody te zastosowano do zbudowania projektu eksploracyjnego w programie STATISTICA 10 PL. Do badań użyto danych z konkursu KDD Cup 99. Zawierają one symulowane ataki w komputerowej sieci wojskowej.
EN
This paper describes how to use the method of data mining methods to detect fraud. Several useful for fraud detection data mining methods described in this article, namely: k-nearest neighbor, wood-reinforced, neural networks, trees, CHAID, C & RT tree, MARSplines. These methods have been used to build the project exploration in STATISTICA 10 PL. Usefulness of these methods to detect attacks on computer network. The study used data from the KDD Cup 99 competition. These data include simulated attacks on military networks.
9
Content available remote Elementy konstruktywnej indukcji w systemie INLENStar
75%
PL
Eksploracja wiedzy jest to szukanie relacji i ogólnych wzorców istniejących w dużych bazach danych. Ta praca daje pogląd na eksplorację wiedzy jako działu uczenia się maszyn ze szczególnym naciskiem na konstruktywną indukcję. Konstruktywna indukcja redukuje wrażliwość algorytmów indukcyjnych na ich słownik poprzez udostępnienie algorytmowi stworzenia nowych zmiennych. Konstruktywna indukcja umożliwia dużo szybszą drogę do przeszukiwania przestrzeni możliwych słowników. Praca prezentuje trzy algorytmy, które zostały zaimplementowane w aplikację INLENStar. Jeden z nich to nowy "Apriori*" zaprojektowany specjalnie na potrzeby INLENStar i dwa dobrze znane algorytmy "COBWEB" i "CLARA". Ogólnie wszystkie te algorytmy znajdują nowe zmienne używając grupowania na trzy różne sposoby. Praca zawiera dużą liczbę eksperymentów, w których zbadano właściwości wyżej wymienionych algorytmów.
EN
Data mining is the search for relationships and global patterns that exist in large databases. This paper provides overviev of database mining as the confluence of machine learning techniques and performance emphasis of constructive induction. Constructive induction reduces the sensivity of an inductive algorithm to its vocabulary by enabling the algorithm to construct new variables. Constructive induction is a much faster way to search the space of possible vocabularies. This work presents three algorithms implemented in INLENStar application. One of these algorithms is new "Apriori*" designed especially for INLENStar, and two well known algorithms "COBWEB" and "CLARA". Generally the three algorithms search for new variables using three different methods of clustering. The paper considers a large number of experiments, to study properties of the algorithms.
10
Content available remote Pozyskiwanie wiedzy z danych katalogowych komponentów systemów pomiarowych
75%
PL
W artykule opisano sposób automatycznej generacji bazy wiedzy z danych katalogowych przetworników. Dane katalogowe jako baza danych pozwoliły wygenerować drzewo decyzyjne. Na podstawie wiedzy zawartej w drzewie decyzyjnym, za pomocą pakietu Spinx, zbudowano bazę wiedzy dla systemu eksperckiego. Stworzona aplikacja jest łatwa w użyciu i za jej pomocą w prosty sposób można wspomóc podjęcie decyzji dotyczącej wyboru czujnika pomiarowego.
EN
Create automatically knowledge base from catalogue cards of temperature sensors are presented in this paper. Catalogue data as database may be used to generate decision tree. Decision tree is the most understandable form of knowledge base to human beings. We may create automatically knowledge base from decision tree. This knowledge base may be used to build expert system. They generate automatically knowledge base from database. Created application is easy to use. Methods and computer program (e.g. Spinx) are described in this paper.
EN
Current database systems development forces applying new information processing technologies. One of them is data mining, composed, among the others, of classification, clustering and association rules. So far, this technology has no generał valid standards. Clustering is a special case of data mining - often it is an initial stage for applying other information analyses. In this article we present short comparison of clustering algorithms implemented in commercial tools produced by companies, which arę very active in discovering new methods in the area of information processing.
PL
Obecny rozwój systemów baz danych wymusza stosowanie nowych technik przetwarzania informacji. Jedną z nich jest eksploracja danych, na którą składają się m.in. klasyfikacja, klasteryzacja czy reguły asocjacji. Technika ta jak do tej pory nie doczekała się ogólnie obowiązujących standardów. Klasteryzacja jest szczególnym przypadkiem eksploracji danych - często stanowi ona etap wyjściowy do stosowania pozostałych technik analizy informacji. Niniejszy artykuł przedstawia krótkie porównanie algorytmów klastrujących, zaimplementowanych w komercyjnych narzędziach firm, które bardzo aktywnie działają w obszarze nowych sposobów przetwarzania danych.
PL
W artykule zaproponowano nową metodę prognozowania wielkości i struktury popytu na rynku dóbr przemysłowych. Koncepcję metody przedstawiono na przykładzie rynku stalowych wyrobów hutniczych. Do prognozowania wykorzystano wybrane metody eksploracji danych: metodę k-średnich oraz algorytm C4.5. Metoda k-średnich służy do wydzielenia grup podobnych przypadków wielkości i struktury zużycia stalowych wyrobów hutniczych (wzorców zużycia). Natomiast algorytm generowania drzew decyzyjnych (algorytm C4.5) służy do określana zależności pomiędzy wzorcami zużycia a predyktorami (parametrami kształtującymi wielkość i strukturę zużycia). Proponowaną metodę zweryfikowano wykorzystując bogaty materiał statystyczny dotyczący wielkości i struktury zużycia stalowych wyrobów hutniczych w wybranych krajach w latach 1960÷2009.
EN
This paper proposes a new method of forecasting the level and structure of market demand for industrial goods. The concept of the method is presented on the example of the steel products market. Forecasting was conducted with the following selected data mining methods: k-means and the C4.5 algorithm. The k-means method serves to separate groups with items of a similar consumption level and structure of the analyzed products (consumption patterns). On the other hand, the algorithm for generating decision trees (C4.5 algorithm) aims to determine the dependencies between consumption patterns and predictors (parameters determining the level and structure of consumption). The proposed method was verified using extensive statistical material on the level and structure of steel products consumption in selected countries in the years 1960÷2009.
PL
Celem artykułu jest zaprezentowanie oprogramowania umożliwiającego indukcję i ocenę reguł klasyfikacyjnych w pakiecie R. Zaimplementowany algorytm indukcji realizuje strategię generowania kolejnych pokryć zbioru treningowego. Unikalną cechą algorytmu jest to, że może on wykorzystywać różne miary jakości, sterujące procesem wzrostu i przycinania reguł. Prezentowana implementacja jest jedną z pierwszych dostępnych dla środowiska R.
EN
The primary goal of this paper is to present an R package for induction and evaluation of classification rules. The implemented rule induction algorithm employs a so-called covering strategy. A unique feature of the algorithm is the possibility of using different rule quality measures during growing and pruning of rules. The presented implementation is one of the first available for R environment.
14
75%
PL
Niniejsza publikacja stanowi próbę scharakteryzowania deterministycznych czynników wpływających na wygraną w pokera. Przeprowadzono analizę w oparciu o jedną z metod eksploracji danych – drzewa klasyfikacyjne. Wybór tej techniki podyktowany był wykorzystaniem danych jakościowych jako zmiennych objaśniających rozgrywkę pokerową oraz prostotą prezentacji otrzymanych wyników, nawet przy bardzo rozbudowanych drzewach. W badaniu odkryto kilka czynników, które w istotny sposób mają wpływ na przebieg gry.
EN
The paper aims to characterize key factors determining poker game outcome. The analysis was based on classification trees and this was due to the qualitative data used as the explanatory variables. The method enables clear presentation of the results even in case of very complex tree structures. The study describes also a few other factors that significantly influence the game outcome.
EN
Knowledge graphs have been shown to play an important role in recent knowledge mining and discovery, for example in the field of life sciences or bioinformatics. Contextual information is widely used for NLP and knowledge discovery in life sciences since it highly influences the exact meaning of natural language and also queries for data. The contributions of this paper are (1) an efficient approach towards interoperable data, (2) a runtime analysis of 14 real world use cases represented by graph queries and (3) a unique view on clinical data and its application combining methods of algorithmic optimisation, graph theory and data science.
PL
Analiza danych z wykorzystaniem metod i narzędzi data miningowych jest wykorzystywana w wielu zastosowaniach. Artykuł omawia możliwości wykorzystania data miningu na potrzeby analizy funkcjonowania podsystemu komunikacyjnego Internetu.
EN
Data mining is used in various application areas and now Internet research meets data mining. Data analysis based on statistical characteristics of collected data has exhaused its capabilities. It is proposed to apply different data mining methods and algorithms to gain our knowledge about the Internet
PL
Cel: Prezentacja wyników uzyskanych przy zastosowaniu modelu opisującego reagowanie systemu ratowniczo-gaśniczego oraz modelu przestrzennej analizy zagrożeń dla jednego z powiatów. Wprowadzenie: Model opisujący reagowanie systemu ratowniczo-gaśniczego oraz przestrzennej analizy zagrożeń został opisany w artykułach: Przestrzenna analiza zagrożeń na podstawie danych historycznych i Klasyfikacja zdarzeń na podstawie danych historycznych (BiTP Vol. 39 Issue 3, 2015) oraz Model reagowania systemu ratowniczo-gaśniczego (w aktualnym numerze kwartalnika – przyp. red.). Niniejszy artykuł zawiera natomiast obliczenia i prognozy otrzymane przy zastosowaniu powyższych modeli do oceny funkcjonowania systemu ratowniczo-gaśniczego na terenie jednego z powiatów. Ze względu na ograniczenia objętościowe ujęto w nim jedynie podstawowe wyniki. Pozwalają one jednak na ocenę przydatności zaproponowanych algorytmów postępowania. W artykule zamieszczono wyniki uzyskane z zastosowaniem standardowych metod obliczeniowych, jednakże model konstruowany był przede wszystkim pod kątem budowy systemów komputerowych wspomagających planowanie systemu ratowniczo-gaśniczego w oparciu o dane historyczne. Budowa takiego systemu i w konsekwencji jego stosowanie przyczyniłoby się, zdaniem autorów, do zwiększenia efektywności tego systemu, rozumianej jako wzrost skuteczności przy ograniczonych zasobach finansowych. Metodologia: Analiza, wnioskowanie i modelowanie statystyczne. Wnioski: Wyniki przeprowadzonych analiz wyraźnie wskazują na duże możliwości zastosowania zaproponowanego modelu do zdarzeń charakteryzujących się pewną historyczną stabilnością: pożary, kolizje i wypadki komunikacyjne, inne zagrożenia miejscowe. Natomiast w przypadku zdarzeń gwałtownych i bardzo rzadko występujących: usuwanie skutków działania sił natury oraz duże pożary i zagrożenia miejscowe, model ten jest trudny do zastosowania ze względu na skromność danych historycznych. Istotnym ograniczeniem przeprowadzonych analiz jest aproksymacja rozkładów empirycznych przyjętymi a priori rozkładami teoretycznymi. Uwzględniając jednak możliwości dzisiejszych systemów komputerowych, można zamiast tego zastosować sieci neuronowe, które na podstawie danych historycznych nauczą się znacznie dokładniej symulować rozkłady empiryczne poszczególnych zmiennych. Tym samym otrzymane wyniki będą bardziej wiarygodne i obciążone mniejszą nadmiarowością. Wyniki zaprezentowane w niniejszym artykule wyraźnie wskazują na przydatność tego modelu do planowania systemu ratowniczo – gaśniczego, nawet jeżeli nie powstanie oparta na nim aplikacja komputerowa.
EN
Aim: To reveal outcomes obtained with aid the firefighting and rescue response model and area risk analysis for one district. Introduction: The model, describing responsiveness of the firefighting and rescue system and area analysis of hazards, were described in articles: Spatial analysis of hazards based on historical data and Classification of incidents based on historical data (BiTP Vol. 39 Issue 3, 2015) and, Rescue and firefighting response model (in the current issue of the quarterly - editorial note). This article contains calculations and forecasts derived from the use of aforementioned model, to evaluate the performance of the firefighting and rescue system across one district. Because of content volume constraints, only basic results are included. Nevertheless, these allow for an evaluation of the usefulness of proposed algorithms. The article contains results obtained by the application of standard calculation methods. However, the model was primarily intended for computerised systems, which supported firefighting and rescue planning activity, based on historical data. The authors’ view is that the construction of such systems and consequently their application, would increase the effectiveness of the system and be recognised as an effectiveness increase with limited financial outlay. Methodology: Analysis, inference and statistical modelling. Conclusions: Results from the analysis clearly indicate a high level of plausibility in the application of the proposed model to incidents, which have some historical stability, such as: fires, vehicle collisions, road traffic accidents and other local hazards. However, in the case of devastating and very rare incidents; removing the effects of natural catastrophes and large fires, and local threats, the model is difficult to apply because of modest availability of historical data. A significant limitation approximation of empirical distributions accepted by a priori of theoretical distributions. However, considering the capabilities of current computer systems, one can substitute this by neural networks, which, based on historical data, can learn to simulate empirical distributions of individual variables much more accurately. At the same time, obtained results will be more reliable and less burdened by extremes. Results presented in this article clearly demonstrate the usefulness of this model for planning associated with the firefighting and rescue system, even if a desktop application, with principles of the model, is not developed.
EN
When analysing big data generated by a typical diagnostic system, the maintenance operator has to deal with several problems, including a substantial number of data appearing every second. Maintenance systems, especially those in mining industry additionally require the operator to make reliable predictions and decisions under uncertainty. All this create so called information overload problem, which can be solved in data mining with the use of existing data reduction techniques. Unfortunately, with complex mining machinery operating under diverse conditions more advanced approaches are needed. Effective solutions can be found among non-trivial degradation assessment techniques provided which shall be properly applied. This work proposes new methods to modelling specific system degradation and prognosis for system failure occurrence. The approach presented here does not rely on typical statistical assumptions. This paper relates to mathematical modelling of real diagnostic data with the use of selected stochastic processes – types of Wiener process and Ornstein–Uhlenbeck process. The main novelty and contribution is in the specific forms of above mentioned processes, in the ways how the process parameters were estimated and also in realistic correlation of proposed models to the studied system. Simulated and real case results show that the proposed robust functional analysis reduces bias and provides more accurate false fault detection rates, as compared to the previous method. We hope the outcomes provide applicable inputs for more effective principles of system operation, predictive maintenance policy and risk assessment.
PL
Krótkoterminowe prognozy wielkości zużycia wody, mają podstawowe znaczenie przy optymalizacji pracy sieci wodociągowych i kanalizacyjnych, a także oczyszczalni ścieków. W pracy dokonano oceny możliwości prognozowania szeregów czasowych dobowego zużycia wody na cele bytowe w gospodarstwie wiejskim z wykorzystaniem metod Data Mining. Do opracowania 10-dniowej prognozy zużycia wody wykorzystano wyrównanie wykładnicze i metodę ARIMA. Materiałem źródłowym do analizy były dobowe ilości wody zużywanej na cele bytowe w wytypowanym gospodarstwie wiejskim w okresie 22 miesięcy. Szczególnie przydatne do prognozowania zużycia wody okazało się wyrównanie wykładnicze, które uwzględnia nie tylko wartości, ale także zróżnicowanie ważności przeszłych obserwacji. Znaczna nierównomierność dobowego zużycia wody powoduje wzrost błędów prognoz. Metody prognozowania oparte na algorytmach wyrównania wykładniczego są łatwe do zastosowania i nie wymagają założenia o stacjonarności szeregu czasowego. W analizowanym przypadku stosunkowo dobrą prognozę dobowego zużycia wody na cele bytowe uzyskano stosując addytywny model Wintersa. Z kolei modele klasy ARIMA pozwalają na dokładną prognozę zużycia wody pod warunkiem właściwej identyfikacji parametrów modelu i spełnienia warunku stacjonarności szeregu. W przypadku braku stacjonarności, przed analizą szeregu, należy przekształcić go wykorzystując np. metodę różnicowania. W celu prognozowania wielkości dobowego zużycia w gospodarstwie wiejskim zastosowano model ARIMA (0,1,2) przy dwóch parametrach średniej ruchomej. Zarówno wyrównanie wykładnicze jak i model typu ARIMA pozwoliły na uzyskanie podobnych wyników prognozowania, przy czym średnia wartość 10-dniowej prognozy zużycia wody na cele bytowe w modelu wykładniczym była o 4,5% wyższa od uzyskanej z modelu ARIMA.
EN
Short-term water usage forecasts are fundamental for the waterworks and sewerage systems as well as for the sewage treatment plants’ optimization. In this research the capability of forecasting the time series of daily household water usage in the farms with implementation of Data Mining methods was evaluated. To prepare the 10-days water usage forecast, exponential smoothing and ARIMA method was used. The source material were the daily amounts of water used for household purposes in the selected farmhouse during 22 months. Exponential smoothing turned out to be the most useful in water usage forecasting, because it includes not only the values, but also the diversification of the future forecasts’ importance. Significant inequality of the daily water usage causes the increase of the forecasts’ errors. The forecasting methods which base on the exponential smoothing algorithms are easy to apply and do not require the assumption of the stationarity of the time series. In the analyzed case relatively good forecast of the daily household water usage was obtained after applying the additive Winters model. On the other hand, ARIMA models allow for the precise forecast of the water usage, providing that the model parameters will be correctly identified and the condition of the time series stationarity will be met. In the case of nonstationary time series, before the analysis the series has to be transformed with e.g. differentiation method. In order to forecast the daily water usage in the farmhouse, ARIMA model was used (0,1,2) with two parameters of the moving average. The exponential smoothing as well as the ARIMA model allowed to obtain the similar forecast results, whereas the average value of the 10-days’household water usage forecast in the exponential model was 4,5% higher than the forecast obtained with the ARIMA model.
20
Content available Integrating simulation into data mining
75%
EN
This article describes a way to integrate a simulation into a data mining technology, particularly with respect to CRISP-DM standard. Aim of this approach is to enable data mining in various cases, when available data do not meet all the requirements for data mining analysis. Solution is primarily tied to manufacturing companies environment, where there are many processes, that can be simulated, and thus the acquisition of sufficient volume of data for further analysis is possible.
PL
W artykule opisano sposób integracji oprogramowania symulacyjnego z technologią eksploracji danych, z szczególnym uwzględnieniem standardu CRISP-DM. Celem takiego podejścia jest pozyskanie danych w przypadkach, gdy dostępne dane nie spełniają wszystkich wymagań związanych z analizą w systemie eksploracji danych. Zaproponowane rozwiązanie jest przede wszystkim związane z praktyką produkcyjną, gdzie realizowanych jest wiele procesów, które można komputerowo zasymulować, a tym samym można pozyskać wystarczające ilości danych do dalszych analiz.
first rewind previous Strona / 11 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.