Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 17

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  data exploration
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Kluczowe wskaźniki wydajności są zdefiniowane jako zestaw metryk umożliwiających ocenę różnych aspektów funkcjonowania procesu produkcyjnego. Należą do nich m.in. takie wskaźniki, jak przepustowość linii produkcyjnej, dostępność oraz wydajność maszyn i ich operatorów, czy też jakość wytwarzanych produktów. W pierwszej części artykułu omówiono hierarchiczną, trójpoziomową strukturę wskaźników wydajności, zgodnie z którą wartości wskaźników podstawowych wyznaczane są na podstawie wskaźników bezpośrednich, na które składają się planowane wielkości charakteryzujące proces produkcyjny oraz ich wartości rzeczywiste, zmierzone bezpośrednio na stanowiskach produkcyjnych. Opierając się na wartościach wskaźników podstawowych, wyznaczane są następnie wartości wskaźników złożonych, umożliwiających syntetyczną ocenę efektywności wykorzystania maszyn oraz zasobów ludzkich zaangażowanych w proces produkcyjny. Znajomość wartości tych wskaźników umożliwia analizę bieżącej kondycji procesu produkcyjnego oraz podjęcie ewentualnych działań naprawczych. Wyniki badań przemysłowych, polegających na oryginalnej implementacji przedstawionej metody zostaną omówione w drugiej części artykułu.
EN
Key performance indicators are defined as a set of metrics allowing assessment of the production process performance. These metrics include e.g. throughput of the production line, availability and effectiveness of the machines and their operators, as well as the quality of manufactured products. The first part of the paper discusses a hierarchical, three-level structure of the performance indicators in which the values of the so-called basic indicators are determined both based on the production plans as well as from the measurements carried out directly at the production units. Based on the values of the basic indicators, the values of the comprehensive indicators are determined to be used as a synthetic assessment of the effectiveness of the use of machines and human resources. These indicators allow gathering knowledge on the current condition of the production process as well as taking possible corrective actions aimed at improving its functioning. The results of the industrial research based on the original implementation of the presented theory will be discussed in the second part of the paper.
PL
Wszystkie kategorie procesów informacyjno-decyzyjnych, realizowanych w obszarze przedsięwzięć inżynieryjnych, wymagają gromadzenia i przetwarzania znacznych ilości danych. Systemy baz danych, eksploatowane w obszarze tych przedsięwzięć, wykorzystuje się niemal wyłącznie do bieżącego przetwarzania informacji. Ich wykorzystanie do celów analitycznych ogranicza się do analiz całkowicie sterowanych przez użytkownika (inżyniera). Natomiast, w wielu obszarach zarządzania, w przechowywanych zasobach danych dostrzega się ogromny potencjał analityczny i dokonuje się z powodzeniem ich zautomatyzowanej eksploracji, pozyskując w ten sposób nową wiedzę (odkrywając nietrywialne, nieznane wcześniej prawidłowości). Wydaje się, że nie ma przeszkód, by podobne działania realizować także w obszarze przedsięwzięć inżynieryjnych, odkrywając nowe klasyfikacje, asocjacje, czy identyfikując sekwencje zdarzeń. Zautomatyzowana eksploracja danych często okazuje się jedynym sposobem wyszukiwania prawidłowości w ogromnych zbiorach danych, których człowiek nie jest w stanie przeanalizować. Specyfika przedsięwzięć inżynieryjnych (znaczna złożoność, niejednorodność a często także niepowtarzalność sytuacji problemowych) narzuca przy tym określone ograniczenia na poszczególne etapy takiej analizy. W opracowaniu przybliżono uwarunkowania stosowania eksploracyjnej analizy danych w przedsięwzięciach inżynieryjnych, nakreślono zakres przedsięwzięć niezbędnych do wykonania w poszczególnych jej etapach oraz wskazano narzędzia umożliwiające programową realizację tego typu przedsięwzięć.
EN
In all categories of information-based decision-making processes implemented in the area of engineering, a significant amount of data must be gathered and processed. Parameters of engineering equipment, as well as data gathered, inter alia, during analysis, design and construction of engineering objects or systems for monitoring engineering structures are stored mainly in operational databases. Database systems utilized in the area of engineering are used almost exclusively for ongoing information processing. Their use for analytical purposes is limited to analyses entirely directed by the user (engineer). On the other hand, in many areas of management, pools of stored data are valued for their immense analytical potential, and their automated exploration is successfully conducted, yielding new knowledge (bringing out extraordinary, hitherto unknown regularities). There is no reason to believe that such activities would not be feasible also in the area of engineering, where they would produce discoveries of new classifications, associations, or identification of sequences of events. Automated exploration of data often turns out to be the only way of looking for regularities in pools of data which are too large for a human being to analyze. The character of engineering projects (their high complexity, heterogeneity, and often the uniqueness of the problem situation) imposes specific restrictions on each phase of such analysis. This study explains conditions for use of exploratory data analysis in engineering projects, delineates the scope of activities which have to be undertaken on its consecutive stages, and presents tools enabling programmatic completion of such projects.
EN
The paper describes basic methodology assumptions related to construction of Bayesian networks. The paper aims at preparation of data for modeling to obtain fresh knowledge on economic and agricultural database and will constitute the first stage of research. Variables (economic and agricultural indicators) with discreet values were used for analysis with the use of two step grouping technique and previous non-typical data were explored. The research was carried out on the group of three hundred individual fanns from Malopolskie and Swiętokrzyskie Voiovedship. The knowledge obtained from analyses will be used in practice in agricultural engineering in order to support agricultural activity.
PL
W pracy omówiono podstawowe założenia metodyczne związane z budową sieci bayesowskich. Zadaniem opracowania jest przygotowanie danych do modelowania w celu pozyskiwania nowej wiedzy z ekonomiczno-rolniczej bazy danych i będzie ono stanowiło jednocześnie pierwszy etap badań. Do analiz wykorzystano zmienne (wskaźniki ekonomiczno-rolnicze) o wartościach dyskretnych posługując się techniką dwustopniowego grupowania oraz dokonano wcześniejszej eksploracji danych nietypowych. Badania przeprowadzono na grupie trzystu gospodarstw indywidualnych z województwa małopolskiego i świętokrzyskiego. Uzyskaną wiedzę z przeprowadzonych analiz będzie można wykorzystać w bezpośredniej praktyce w inżynierii rolniczej mając na celu wspomaga-nie działalności rolniczej.
PL
Celem pracy jest omówienie różnych metod klasteryzacji (grupowania) w sieciach społecznych. Analizowane dane są wstępnie podzielone na klastry według miejsca zamieszkania członków sieci. Opracowany algorytm i bazująca na nim aplikacja dokonuje oceny jakości grupowania oraz umożliwia ponowny podział według różnych metod, a następnie porównanie wyników ich działania. Zaimplementowanych zostało wiele algorytmów, których działanie daje odmienne rezultaty. Aplikacja współpracuje z serwerem baz danych Microsoft SQL Server. Zastosowane zostały dwa typy użytkownika (UDT) w technologii CLR, które implementują obiekty odpowiadające składowym sieci-grafu [1]: osobę (SocNetPerson) i klaster (SocNetCluster).
EN
The purpose of work is to discuss the various methods of clustering in social networks. Analyzed data are initially divided into clusters according to the place of residence of the members of the network. Developed algorithm and application based on it evaluates clustering quality and enables redistribution according to various methods, and then comparing the results of their actions. There were implemented many algorithms which gives different results. The application works with database created on Microsoft SQL Server platform. Two user defined data types have been applied in CLR technologies that implement the objects corresponding to the component network-graph: person (SocNetPerson) and the cluster (SocNetCluster).
PL
Zapewnienie bezpieczeństwa pracy i utrzymanie ciągłości wydobycia to kluczowe zadania systemów telekomunikacyjnych w górnictwie głębinowym. Systemy te pomimo nowoczesnych i innowacyjnych rozwiązań monitorowania infrastruktury nie są wolne od wad. Praktycznym problemem jest występowanie fałszywych alarmów o uszkodzeniu infrastruktury, które powodują negatywne skutki, takie jak zwiększenie kosztów bieżącej eksploatacji systemu i przeciążenie informacyjne operatorów. W publikacji zaproponowano metodę wykrywania fałszywych alarmów w systemie telekomunikacyjnym kopalni oraz zaprezentowano niektóre reguły dostarczające użytecznej wiedzy z danych. Eksperymenty zostały przeprowadzone na rzeczywistych danych pochodzących z systemu telekomunikacyjnego funkcjonującego w kopalni KGHM Polska Miedź S. A.
EN
The key task of telecommunication systems in deep mining is to ensure safety and continuity of produetion. These systems, despite modern and innovative infrastructure monitoring solutions, are not free from drawbacks. The practical problem is the oceurrence of false alarms of damage to infrastructure, which cause many negative effects such as the inerease in the cost of the current operation of the system, information overload of operators or service errors. This paper proposes a method for detecting false alarms in the communication system of the copper mine and presents some rules that provide useful knowledge extracted from the database. The experiments were carried out on real data from the telecommunication system operating in the mine KGHM Polska Miedz S.A.
PL
Artykuł zawiera opis przykładu użycia metod eksploracji danych do wykrywania nadużyć w systemach biznesowych IT. Przedstawiono wybrane metody eksploracyjne – k-najbliższych sąsiadów, drzewa wzmacniane, sieci neuronowe, drzewa CHAID, drzewa C&RT, MARSplines. Metody te zastosowano do zbudowania projektu eksploracyjnego w programie STATISTICA 10 PL. Do badań użyto danych z konkursu KDD Cup 99. Zawierają one symulowane ataki w komputerowej sieci wojskowej.
EN
This paper describes how to use the method of data mining methods to detect fraud. Several useful for fraud detection data mining methods described in this article, namely: k-nearest neighbor, wood-reinforced, neural networks, trees, CHAID, C & RT tree, MARSplines. These methods have been used to build the project exploration in STATISTICA 10 PL. Usefulness of these methods to detect attacks on computer network. The study used data from the KDD Cup 99 competition. These data include simulated attacks on military networks.
7
Content available remote Visual mining czyli eksploracja informacji za pomocą graficznych reprezentacji
PL
W odpowiedzi na zalew informacji, w szczególności medialnej, użytkownicy chętnie preferują jej formy wizualne ze względu na właściwości percepcyjne i analityczne. Trudno o systematykę technik wizualizacyjnych, których zróżnicowanie wynika z faktu, że ta metodologia mająca korzenie w naukach komputerowych wykształciła się z wielu kierunków badawczych, m.in.: analiza danych, statystyka, data mining, grafika komputerowa, interakcja człowiek-komputer, kognitywistyka itp. Na rozwój wizualizacji wpłynęły wzrost mocy obliczeniowej komputerów, włączając najnowsze rozwiązania wydajnych kart graficznych oraz nieliniowy przyrost zasobów sieciowych wolnego dostępu. W artykule przedstawione są wyniki wieloaspektowych analiz zbioru dokumentów na podstawie wizualizacji metadanych. Autorka pokazuje, jak zastosowanie metod wizualnych dostarcza nowych perspektyw w analizie i interpretacji danych naukowych, jak mapy wizualizacyjne wspomagają eksplorację, jak również wyszukiwanie badanych dokumentów. Zaprojektowany odpowiednio interfejs aplikacji zapewnia sprzężenie zwrotne, co umożliwia użytkownikowi sterowanie procesem wizualizacji.
EN
Currently users prefer visual information in order to deal with the flood of information, particularly regarding to medial communication. Visual form of data has to facilitate their perception and analysis. It is difficult to classify of information visualization and visual datamining techniques because it evolved from interdisciplinarity. Having roots in computer science, visualization overlaps with data analysis, data mining, statistics, computer graphics, human-computer interaction, cognitive science. Recent achievements in information science and computer science together with the increased availability of digital scholarly data and computing resources accelerate visualization development. In this paper the results of multifaceted visual analysis by means of metadata mapping are presented. The author exemplifies the potential of visual analysis, especially in data exploration and retrieval. Application’s interface allows to realize feedback with user and thus control the visualization process.
PL
W artykule zaprezentowano podejście i metody pozyskiwania wiedzy z danych, które mogą zostać wykorzystane w zarządzaniu współczesnymi przedsiębiorstwami. W tym zakresie szczególną uwagę zwrócono na techniki inteligentne znajdujące zastosowanie na etapie eksploracji danych do poszukiwania nowych zależności i reguł w dużych zbiorach danych. Zaprezentowano przykładowe algorytmy i kierunki ich praktycznego wykorzystania w przedsiębiorstwie górniczym.
EN
The paper presents the approach and methods of acquiring knowledge from data that can be used in the management of modern enterprises. In this regard, special attention was paid to the intelligent techniques finding application at the stage of data exploration for searching of new relationships and rules in large data sets. The exemplary algorithms and guidelines for their practical use in a mining company were presented.
PL
Artykuł opisuje metodykę analizy danych z symulatora błędów za pomocą reguł asocjacyjnych, przedstawioną na przykładzie analizy wyników eksperymentów symulacji błędów dla sterownika reaktora chemicznego. Dane z eksperymentów gromadzone są w hurtowni danych, wyposażonej w usługi raportowania i eksploracji danych. Celem analizy jest odkrycie cech aplikacji istotnych dla jej niezawodności.
EN
Article describes a methodology of analysis of data from faults simulator. The methodology is based on association rules and is presented on an example of analysis of results from faults simulation for chemical reactor controller. The goal of the analysis is to discover application’s features important for its dependability.
PL
Każda decyzja o udzieleniu kredytu obarczona jest ryzykiem. Im ryzyko jest większe, tym straty spowodowane błędną decyzją mogą być większe. Istotnie ważnym elementem jest zbadanie, czy osoba starająca się o kredyt daje szansę jego spłaty. W związku z tym, zbierane są pewne dane charakteryzujące danego kredytobiorcę, a następnie dany wniosek jest oceniany przez system scoringowy oraz ekspertów ryzyka kredytowego. Aby system scoringowy spełniał należycie swoje cele, nie może opierać się na jakiejś sztywno przyjętej teorii definicji ,,złych” klientów. Wykorzystując metody eksploracji danych poszukujemy pewnych wzorców w zebranych wcześniej danych, na podstawie innych wniosków kredytowych.
EN
Any decision to grant loan, it is fraught with risk. If the risk is higher, than the losses caused by an incorrect decision could be higher. Indeed, an important element is whether the person applying for a loan gives you the chance of its repayment. Consequently, collected some data which characterize the borrower and then the application is assessed by the scoring system and experts of the credit risk. To meet the scoring system due to its golas, can not be based on an accepted theory of rigid definition of "bad" clients. Using data mining methods we are looking for certain patterns in the data already collected under other loan applications.
PL
Eksploracja danych jest coraz popularniejszą metodą analizy danych środowiskowych. Głównym problemem podczas analizy takich danych jest silny wpływ składowej losowej oraz skomplikowane relacje między zmiennymi objaśniającymi. Celem podjętych badań jest wyznaczenie składowych szeregu czasowego dotyczącego parametrów produkcji biogazu w oczyszczalni ścieków oraz jego predykcja.
EN
Data mining became popular method of environmental data analysis. Strong influence of irregular variable and complicated relationship between data are main problems during data modeling. This examination purpose is to identifying patterns and predict future values of time series of biogas production from wastewater treatment plant.
PL
Artykuł podejmuje temat zapytań wzorca dla Trajektoryjnej Hur­towni Danych, TrDW. W ramach zapytań wzorca został zaprezentowany sposób przekształcania trajektorii obiektów do postaci sekwencji regionów oraz eksploracji tak uzyskanych sekwencji z użyciem funkcji porównujących. Przedstawione funkcje porównujące zostały podzielone na dwie grupy. Pierwsza grupa umożliwia uzyskanie informacji na temat konkretnego, zdefiniowanego przez użytkownika wzorca. Druga natomiast służy pozyskiwaniu informacji podsumowujących dotyczących wszystkich analizowanych sekwencji trajektorii. Informacje uzyskane w wyniku użycia drugiej grupy mogą również posłużyć, jako dane wejściowe grupy pierwszej. W artykule przedstawiono również wpływ różnych parametrów, wykorzystywanych podczas przekształcania trajektorii, na rozmiar składowanych agregatów.
EN
This paper presents the query model for Trajectory Data Warehouse. The pattern queries in this paper present a way of transforming object trajectories into region sequences, as well as exploring such sequences using comparison methods. Such comparison methods are divided into two groups. The first group makes it possible to collect information about a particular user-defined pattern. The second involves obtaining information summary of all analyzed trajectory sequences. Information obtained as a result of using the second group may be also used as input data for the first group. We also show the impact of different parameters of transformation of trajectories on the size of stored aggregates.
EN
Article aims at introducing for the readers few problems connected with KDD process, Data Mining project modeling with the use of CRlSP-DM The systemized knowledge, aproaches to and generic terms was presented in the article. In the first part article describes approach to Data Exploration as one of the KDD cycle, which is specialized Knowledge Discovery process. Then article takes the subject of CRlSP-DM method. The context of method usage depending on scale and integration of project, which they concern - ivestigate of useing text mining in Inteligent Decission Support System (IDSS) develop by informatic faculty of Fire Service. At the end of the article the summary was made, which contains common features between the two looks on the exploration and extracting knowledge from data bases.
PL
W pracy omówiono możliwości wykorzystania tzw. metod modelowania pajęczynowego do modelowania i analizy jakościowej obiektów złożonych w procesach eksploracji danych. Zdefiniowano takie pojęcia jak: N-wymiarowa przestrzeń pajęczynowa, model pajęczynowy obiektu, adekwatność modelu oraz niektóre charakterystyki eksploracyjne modelu.
EN
In this paper opportunities to use so called spiderweb modeling method in modeling and qualitative analysis of complex objects in the processes of data exploration were discussed. Such terms as N-dimension spiderweb space, spiderweb's model of the object, adequacy of the model and some exploration characteristics of the model were defined.
15
Content available remote Grade Approach to the Analysis of Questionnaires and Clinical Scales Data
EN
Grade approach has been applied to visualize and reinvestigate a dataset from diagnostic questionnaires and scales used in psychological and psychiatric clinical practice. Grade exploration reveals important hidden variables strongly influencing other variables and splits questionnaire data into more regular monotone dependent blocks. Two sets of homogeneous and ordered clusters of patients, formed on the basis of first line variables and described also by second line variables, expose links between neurosis symptoms and Internal or External Locus of Control as well as prove useful for specifying and verifying diagnoses. All analyses were performed using the GradeStat program.
16
Content available remote Hybrid Data Exploration Methods to Prediction Tasks Solving
EN
The paper presents the data exploration issue in a context of the prediction tasks solution. There arę presented three methodologies of data models construction in the paper. The methodologies are used to solve the prediction tasks. They also deliver an easily interpretable knowledge about the modeled process. The methodologies, called hybrid methods, combine analytical algorithms (clustering, rules induction) and optimization algorithms (genetic algorithms, error backpropagation). The paper presents also a method of a data transformation between the temporal data representation and the data representation acceptable. for algorithms using learning by examples paradigm. The paper presents also the results of the experiments performed on the benchmark data and the data obtained from a methane concentration monitoring system in a coal mine.
PL
W artykule przedstawiono problem eksploracji danych w kontekście realizacji zadań związanych z predykcją. Przedstawiono i porównano trzy metodologie uzyskiwania modeli danych, które poza tym, że wykorzystywane są do rozwiązywania zadań predykcyjnych dostarczają również stosunkowo łatwo interpretowalnej wiedzy o opisywanym procesie. Przedstawione metodologie łączą algorytmy analityczne (grupowanie danych, indukcja reguł) z metodami optymalizacji (algorytmy genetyczne, wsteczna propagacja błędu) stąd nazwa metody hybrydowe. W artykule omówiono również metodę przejścia z temporalnej reprezentacji danych na reprezentację akceptowalną przez algorytmy wykorzystujące paradygmat uczenia na podstawie przykładów. Na zakończenie przedstawiono wyniki eksperymentów przeprowadzonych na zbiorze danych benchmarkowych oraz na zbiorze pochodzącym z bazy danych systemu monitorującego wydzielanie metanu w kopalniach.
17
EN
Designing the linear, separable transformations aimed at enhancing of differences between selected categories is described in the paper. The designing procedure is based on minimisation of the convex and piecewise-linear criterion functions defined on the learning data sets. The separable transformations could be used not only in exploratory data analysis and data mining but also in medical diagnosis support systems.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.