Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Ograniczanie wyników
Czasopisma help
Lata help
Autorzy help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 189

Liczba wyników na stronie
first rewind previous Strona / 10 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Data Mining
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 10 next fast forward last
XX
W artykule przedstawiono dyskusję metod eksploracji danych, modeli i technik, dzięki którym przedsiębiorstwa mogą lepiej konkurować na światowym rynku, lepiej przygotować oferty produktów i usług. Skuteczność i korzyści wynikające z zastosowania wybranych rozwiązań Data Mining przedstawiono na podstawie studium zagranicznych przypadków z sektora finansowego i telekomunikacyjnego. (oryginalny abstrakt)
EN
Data mining may help many enterprises from different industries improve key areas of its business activity. It can improve customer's service, help to prepare personalized offers for specified customers, it enables processing of different types of data, not only numerical ones. Thanks to the application of Data Mining methods, models and techniques enterprises can better compete on worldwide market, prepare better offers of products and services. The efficacy and benefits of selected Data Mining solutions' applications were showed in foreign case studies of financial and telecommunication industry. (fragment of text)
XX
Artykuł przedstawia jedną z metodyk realizacji Data Mining zwaną SEMMA. Metodyka ta w prosty i skuteczny sposób wspomaga przeprowadzanie złożonego procesu, jakim jest eksploracja danych. Została opracowana i zaimplementowana przez producenta oprogramowania do eksploracji danych Enterprise Miner, amerykańską firmę SAS Institute, Inc.. Opisano tutaj dokładnie kroki postępowania, które składają się na tą metodologię czyli Sample, Explore, Modify, Model, Assess. Do każdego z tych etapów przedstawiono poszczególne narzędzia operowania danymi. Dla Sample są to Input Data Source, Sampling, Data Partition. Narzędzia Explore to Distribution Explorer, Multiplot, Insight, Association, Variable Selection, Link Analysis. Do etapu Modify zaliczamy narzędzia Data Set Attributes, Transform Variables, Filter Outliers, Re-placement, Clustering, SOM/Kohonen, Tim Series. Narzędzia Model to Regression, Tree, Neural Network, Princomp/Dmneural, User Defined Model, Ensemble, Memory-Based Reasoning, Two Stage Model. Narzędzia ostatniego etapu Assess to Assessment i Reporter. Oprócz narzędzi należących do kroków metodyki SEMMA opisano także narzędzia z dwóch grup węzłów: Scoring i Utility. Zaprezentowano także reguły, których należy przestrzegać przy budowie diagramów analizy danych. Dla ilustracji przetwarzania według metodyki SEMMA przedstawiono przykład analizy Data Mining za pomocą narzędzi SAS Enterprise Miner. Przykład dotyczy prognozowania posiadania komputera z dostępem do Internetu w gospodarstwach domowych na podstawie wybranych cech gospodarstwa. Porównywana jest jakość dwóch modeli predyktywnych: regresji logistycznej i sieci neuronowych. (abstrakt oryginalny)
EN
The article presents the Data Mining process based on SEMMA methodology. It regards matching of the data mining process to the general strategy of problems solution by the business or research unit. Ali six stages are characterized on the base of the best practices. The article will facilitate the successful application of SEMMA methodology in practice. (original abstract)
EN
The article describes several basic data mining fundamentals and their application in logistics and it consists of two sections. The first one is a description of different parts of data mining process: preparing the input data, completing the missing data, classification method using k-nearest neighbours algorithm with theoretical examples of usage conducted in opensource software called R and Weka. The second section of the article focuses on theoretical application of data mining methods in logistics, mainly in solving transportation problems and enhancing customer's satisfaction. This section was strongly influenced by data provided by DHL enterprise report on Big Data. The data used in theoretical examples is of own elaboration. (original abstract)
EN
This paper considers Data Mining and its relations to statistical data analysis. Data Mining is defined as an extraction of implicit, previously unknown and potentially useful information from data. Its techniques: data summarization, learning classification rules, deriving causal dependencies, etc. are described. The paper also presents a list of several data mining computer systems and shows methods they use to discover knowledge about data. In addition, some examples of statistical methods used in data mining are included. (original abstract)
XX
Pierwszy algorytm do generowania reguł skojarzeniowych powstał w 1994 r. pod nazwą Apriori. Wyszukiwał jedynie boolowskie reguły skojarzeniowe, ale jednocześnie nie wymagał dużej mocy obliczeniowej komputerów. Większość późniejszych prac dotyczących algorytmów do reguł skojarzeniowych bazowała właśnie na Apriori. Kolejnym krokiem usprawniającym wynajdywanie asocjacji był algorytm z 1996 r. o nazwie "Rozszerzony Apriori" (Extended Apriori Algorithm). Modyfikacja była znaczna, pozwalała bowiem na generowanie reguł ilościowych. W tym samym roku opracowano algorytmy do generowania reguł wielowymiarowych oraz zaczęto prace nad algorytmami równoległymi, znacznie przyspieszającymi obliczenia. W chwili obecnej reguły skojarzeniowe doczekały się kilkunastu implementacji. Oprogramowanie dostępne na rynku to m.in.: Apriori, ARtool, Azmy SuperQuery, CBA, IBM Intelligent Miner, IREX, Magnum Opus, SPSS Clementine, SRA KDD Explorer Suite, STATISTICA Data Miner, Wiz Rule, XAffinity, Xpertrule Miner. (fragment tekstu)
EN
This article presents popular data mining tool - association rules. The author demonstrates common measures of quality i.e. support and confidence. He focuses on the main research area - market basket analysis and describes all types of rules (qualitative and quantitative, single-level and multilevel, single-dimensional and multi-dimensional). Furthermore, problems of minimum support and minimum confidence are mentioned. The article includes a list of several computer programmes - implementations of association rules. (original abstract)
XX
Artykuł ma na celu przedstawienie metody integracji rezultatów wielu modeli. Jeśli powstają one w metodyce Data Mining, to zazwyczaj nie ma przesłanek do wyboru struktury, która najlepiej reprezentuje rozważane zależności. Konstruuje się kilka modeli, testuje je, a następnie "najlepszy" jest implementowany. "Najlepszy" oznacza, że jest to model dominujący pozostałe ze względu na pewne kryterium. Zauważmy jednak, że różne kryteria dotyczą odmiennych własności modeli i mogą wskazywać na różne rozwiązania jako optymalne. Aby uniknąć tego problemu, proponujemy dekompozycję i integrację modeli poprzez analizę składowych niezależnych (ang. Independent Component Analysis). Taka transformacja pozwoli uchwycić komponenty odpowiedzialne za jakość modeli. (abstrakt oryginalny)
EN
One of the key elements of information management is automated extraction о knowledge from data called Knowledge Discovery (KD). The KD techniques use ally aim at finding the previously unknown information that could be used fc business purposes such as fraud detection, client/ market segmentation, risk anal) sis, customer satisfaction and bankruptcy prediction. If the process of finding trends and patterns bases on large data set it is called Data Mining (DM). The methodology of DM modelling can follow the SEMMA procedure introduced b SAS consisting of the five steps: Sample, Explore, Modify, Model and Assess. The last stage of DM process and its modification is the point of interest of this article. Namely, instead of choosing the sole final model we propose to integrate the knowledge uncovered by the set of models. Such integration includes decomposition of the models results into statistically independent signals and receiving from them the one, that is the most similar to the predicted variable. Sue transformation can be done by means of Independent Component Analysis (IСА). (fragment of text)
XX
Zadanie data mining (drążenie danych) to otrzymywanie użytecznej wiedzy ze znacznej ilości danych. Do głównych zadań data mining należą: klasyfikacja, klasteryzacja (grupowanie) i odkrywanie reguł asocjacji (czyli znajdowanie związków pomiędzy grupami elementów). W artykule przedstawiono zastosowania metod wzorowanych na naturze (algorytmy ewolucyjne i mrówkowe, sieci neuronowe) w zadaniach data mining.
EN
Methods based on Nature are very popular in the field of Artificial Intelligence. Evolutionary Algorithms, Neural Networks and recently, Ant Systems Optimization are used for solving different problems. An advantage of those approaches is ability to produce acceptable solutions in reasonable time. Among others, data mining tasks, such classification, are the subjects of investigations using all mentioned above attempts. The paper presents the experimental study focused on usefulness of Evolutionary Algorithms and Ant System in classification task. The popular test sets (UCI Repository) are used in the presented study. To compare both approaches, the authors propose a set of criteria, such a number of rules, sensitivity, specificity, etc. Obtained results are summarized and discussed. (original abstract)
8
Content available remote Data Collection Through Web Harvesting for Real Estate Market Research
80%
XX
Web harvesting to nowa technika używana do zbierania, ekstrakcji i integracji danych z różnych źródeł internetowych poprzez wykorzystanie robotów indeksujących, wspomaganych technologią filtrowania danych z użyciem wyrażeń regularnych. W sytuacji gdy zaistnieje konieczność zgromadzenia danych pochodzących z różnych stron internetowych, które mają niejednorodną budowę, strukturę i nazwę, typowe dostępne na rynku oprogramowanie web harvesting działające automatycznie lub półautomatycznie nie jest już wystarczające. Artykuł przedstawia architekturę systemu stworzonego przez Instytut Gospodarki z Rzeszowa, która służy do zbierania danych z portali rynku nieruchomości. W dalszej jego części zaprezentowano analizy oraz potencjalne zastosowanie aplikacji w naukach społecznych. (oryginalny abstrakt)
EN
A research study requires that the researcher have the data and their analysis in order to confirm or refute a hypothesis. Data can be gathered in many ways, including primary and secondary sources. Considering waste amounts of data stored in various WWW services, one of the developing and promising method for data collection is through web harvesting. The development of information technology means that it is possible to get aggregated data more easily and faster than ever before. The Internet as a world-wide network is a huge repository of various data as yet in unaggregated format. An example of such data which change dynamically are advertisements, selected at defined time intervals which can be used to track or forecast changes. Such information may be available in an aggregated format at a later date from a monthly, quarterly perspective, semi-annual or annual. This is why the only step in this case is to use the techniques for automatic selection and download of data from any portal which is of interest. (fragment of text)
9
Content available remote Metodyka realizacji procesu pozyskiwania wiedzy z danych
60%
XX
Pozyskiwanie wiedzy z danych (ang. KDD - Knowledge Discovery in Databases) to jedna z najszybciej rozwijających się dziedzin informatyki w ostatnich latach. Powstała w wyniku rosnącego zapotrzebowania na coraz efektywniejsze metody wydobywania informacji ukrytych w ogromnych zbiorach danych (np. hurtowniach danych). Praktycznie nieograniczone możliwości w zakresie gromadzenia danych sprawiły, że same systemy utrzymywania baz danych stały się niewystarczające. Wraz ze zwiększającą się objętością zbiorów danych powstawały problemy związane z prezentacją informacji w nich zawartych, a także z efektywnym ich wydobyciem. Ilość informacji z czasem przerosła ludzkie możliwości analizy oraz utrudniła podejmowanie na ich podstawie decyzji. Dostrzeżono, że wśród ogromnej liczby pozornie nieprzydatnych danych zawarte są cenne informacje, które można wykorzystać w zarządzaniu przedsiębiorstwem. (fragment tekstu)
EN
The process of discovering knowledge in databases may become a strong tool which would facilitate retaining competitive advantage on the insurance market. Its classification capabilities will enable insurance companies to acquaint themselves with their customers and their preferences, and to gain an in-depth understanding of the current policy portfolio. As a result of the predictive properties of the process an insurance company will be able to respond proactively to its customers' expectations, and thus ensure retaining the customers and counteracting customer loss to competitors. The predictive properties also enable some market behaviour and risks on the part of the competition to be anticipated before they actually occur, and this increases the probability of being the first to counteract. However, in order to enable correct and effective completion of the knowledge discovery and data mining processes, the methodology of the process completion has to be adhered to and the terms and conditions for each of the stages of the process have to be met. Many computer information tools have been developed to support knowledge discovery in databases. However, even the best of programs will not solve all the problems connected with completion of the process and are not sufficient to ensure the success of the project as a whole. It is necessary to have an effective and efficient operating methodology. The methodology I am presenting has been developed based on the known methodology of computer tools for data mining purposes (specifically on the SAS and SPSS methodologies) and on the basis of my own professional experience. Methodology DAD (Data-Analisys-Decision) includes nine stages: formulating process assessments, extracting records and variables, extract processing, getting acquainted with the data, analysis of cross-correlations, analysis of multi-factor correlations, assessment of model results, transformation of results into knowledge, assessment of the usefulness of knowledge. The particular description of methodology DAD are presented in this article. (original abstract)
EN
The paper presents an improved sample based rule- probability estimation that is an important indicator of the rule quality and credibility in systems of machine learning. It concerns rules obtained, e.g., with the use of decision trees and rough set theory. Particular rules are frequently supported only by a small or very small number of data pieces. The rule probability is mostly investigated with the use of global estimators such as the frequency-, the Laplace-, or the m-estimator constructed for the full probability interval [0,1]. The paper shows that precision of the rule probability estimation can be considerably increased by the use of m-estimators which are specialized for the interval [phmin, phmax] given by the problem expert. The paper also presents a new interpretation of the m-estimator parameters that can be optimized in the estimators. (original abstract)
XX
W badaniach nad systemami wspomagania decyzji szczególne miejsce zajmują metody oparte na analizie danych. Ostatnie dwudziestolecie przyniosło istotny przełom w tej dziedzinie i zaowocowało opracowaniem skutecznych metod i algorytmów odkrywania wiedzy z danych.(fragment tekstu)
EN
The paper concerns the potential perspectives of the use of knowledge discovery from data (KDD) methods together with non-commercial analytical tools in public administration. The main categories of data analysis techniques were identified and characterised with a special focus on the predictive models for data driven decision support. Some non-commercially available packages supporting the overall KDD process were enumerated and characterised in order to show their professional capabilities available not only for big companies.(original abstract)
XX
Współczesne organizacje stanęły wobec konieczności podejmowania złożonych, słabo ustrukturalizowanych decyzji. Rozproszenie źródeł informacji, decentralizacja procesu podejmowania decyzji powoduje, że dotychczasowe modele zarządzania informacją okazują się niewystarczające. W tej sytuacji proponuje się organizacjom zastosowanie systemów BI. Systemy BI reprezentują zintegrowane środowisko, składające się przede wszystkim z hurtowni danych, narzędzi ETL, technik OLAP i Data Mining. Pozwala ono na prowadzenie wielu wartościowych analiz biznesowych dotyczących zachowań klientów, kształtowania strategii cenowej, prognozowania rozwoju organizacji, optymalizacji czynności logistycznych itp. (abstrakt oryginalny)
EN
The paper aims at analysing Business Intelligence Systems (BI) in the context of opportunities for improving decision-making in a contemporary organisation. The authors - taking specifics of a decision-making process together with heterogeneity and dispersion of information sources into consideration - present Business Intelligence Systems as some holistic infrastructure of decision-making. It has been shown that the BI concept may contribute towards improving quality of decision-making in any organisation, better customer service and some increase in customers' loyalty. The paper is focused on three fundamental components of the BI systems, i.e. key information technologies (including ETL tools and data warehouses), potential of key information technologies (OLAP techniques and data mining) and BI applications that support making different decisions in an organisation. A major part of the paper is devoted to discussing basic business analyses that are not only offered by the BI systems but also applied frequently in business practice. (original abstract)
13
Content available remote Intelligent data analysis - support for development of SMEs sector
60%
EN
The paper studies possibilities of intelligent data analysis application for discovering knowledge hidden in small and medium-sized enterprises' (SMEs) data, on the territory of the province of Vojvodina. The knowledge revealed by intelligent analysis, and not accessible by any other means, could be the valuable starting point for working out of proactive and preventive actions for the development of the SMEs sector. (original abstract)
EN
Companies information systems ERP (Entrepreneur Resource System) automate company's processes linked to orders of customers. It allows very complex process of the order - from the tender to its dispatch. Order processing looks like the flash through organisation. All employees in a company have the same possibility to use information stored in the ERP system for their decision. The assumption is to put all information on-line. ERP system can be sometimes used like magic tool for managing of main company's processes but only under condition that the stochastic behaviour is ignored. It could be no problem for some business processes but for some services or for production processes is the stochastic behaviour very important influence factor and should be included in planning. The development of ERP systems was rapid. There is possible to use a lot of methods and tools for decision support. The models implemented into ERP systems are usually mathematical models of various spinosity. Sometimes it is very difficult to project a mathematical model because all parameters are reciprocally impact. Analytical methods get at limit of their ability. It means that the dynamic environment needs complex access to solution of a production system. These all failings eliminate computer simulation of discrete systems. (fragment of text)
XX
Niniejszy artykuł skupia się na problemie wsparcia operacyjnego w procesach transportowych. Jest on rozwinięciem prac prowadzonych na Akademii Morskiej w Szczecinie prowadzonych w kierunku optymalizacji trasy statku na akwenie ograniczonym. Dotychczas zadanie to sprowadzano do rozwiązania problemu w sensie geometrycznym. Należy jednak zauważyć, że proces transportowy i jego optymalizacja to nie tylko znalezienie najkrótszej drogi, najniższych kosztów itp. Aby zapewnić wymaganą optymalność należy również zapewnić odpowiednie wsparcie operacyjne, polegające na detekcji zaistniałych problemów, dokonywaniu prognoz czy wydawaniu odpowiednich zaleceń. Zwykłe techniki związane z analizą danych takie jak data mining czy Business Intelligence skupiają się na opisie systemu, ale nie analizują związku przyczynowo-skutkowego, który doprowadził do określonego stanu. Odpowiedzią jest tutaj process mining.(abstrakt oryginalny)
EN
This paper focuses on the operational support in transport processes. This is an extension of researches that have been carried out at the Maritime University of Szczecin in the area of optimization of the ship route in restricted area. Until now this problem has been only considered as a geometrical one, but it has to be clear that to ensure the optimal path, optimal transport costs etc. it is necessary to keep the operational support such detection, prediction and recommendations. Usual data processing techniques such data mining or Business Intelligence focus only on the simplified description of the system, but don't analyze the whole process which has lead to the current state of the system. Here the process mining will be the answer.(original abstract)
EN
The main goal of this article is to compare data-mining clustering methods (k-means and fuzzy c-means) based on a sample of banking and energy companies on the Gulf Cooperation Council (GCC) stock markets. We examined these companies for a pattern that reflected the effect of news on the bank sector's stocks throughout October, November, and December 2012. Correlation coefficients and t-statistics for the good news indicator (GNI) and the bad news indicator (BNI) and financial factors, such as PER, PBV, DY and rate of return, were used as diagnostic variables for the clustering methods.(original abstract)
XX
W odróżnieniu od standardowych procedur zadaniem nowej metody integracji nie jest uśrednianie czy ważenie wyników kilku modeli (boosting, bagging) w sposób optymalny dla jednego kryterium błędu (np. MSE), lecz poszukiwanie fundamentalnych komponentów mających wpływ na predykcję. Czynimy to jednak nie od strony danych wejściowych, a od strony rezultatów. Czynniki te mogą być bowiem związane zarówno z danymi wejściowymi, jak i działaniem modeli, rezultaty zaś zawierają informację o całym procesie. Estymacja, interpretacja, a następnie eliminacja destrukcyjnych komponentów jest rzeczą kluczową w całym procesie. Zauważmy też, że eliminacja takiego czynnika prowadzi (teoretycznie) do poprawy we wszystkich modelach, według wszystkich kryteriów. Metoda opisana powyżej może być traktowana jako wielowymiarowa filtracja eliminująca negatywne komponenty, która w odróżnieniu od klasycznej filtracji wykorzystuje informację generowaną jednocześnie przez wiele modeli. Istotnym czynnikiem przemawiającym za stosowaniem niniejszej metody może być to, że mimo nowatorskiej koncepcji jej realizacja odbywa się przez wykorzystanie standardowych procedur istniejących w pakietach Data Mining. Adresowana więc może zarówno do statystyków, jak i informatyków baz danych. (abstrakt oryginalny)
EN
In this paper we propose a novel ensemble methods for prediction improvement. Results generated by a model usually include both wanted and destructive components. In case of a few models, some of the components can be common to all of them. Our aim is to find basis elements and distinguish the components with the constructive influence on the modelling quality from the destructive ones. After rejecting the negative elements from the models' results we obtain better results in terms of some standard error criteria. (original abstract)
XX
Badania przedstawione w pracy polegały na zbadaniu stosowalności metod selekcji cech (CFS, FCBF, Symmetrical Uncertainty, ReliefF, LVF, Significance Attribute) w zadaniu selekcji istotnych kryteriów oceny jakości serwisów internetowych i przypisywania im wag. Stosowalność metod została zbadana na tle podejścia polegającego na określaniu wag kryteriów oceny serwisów internetowych przez użytkowników. (abstrakt oryginalny)
EN
The research discussed in the article consists of examining the applicability of feature selection methods (CFS, FCBF, Symmetrical Uncertainty, ReliefF, LVF, Significance Attribute) in the task of selecting website assessment criteria and assigning weights to them. The applicability of the chosen methods was examined against the approach in which the weight of website assessment criteria is defined by users. The research results support the use of the SU method as part of the procedure, as a tool for the selection and weighting of the criteria. (original abstract)
XX
Niniejszy artykuł opisuje zastosowanie reguł asocjacyjnych w analizie koszyka zakupów. Na wstępie została podana definicja przytoczonego pojęcia, łącznie z przykładami aplikacji komputerowych, w których została ona zaimplementowana. W całej pracy autor przytacza ekonomiczne korzyści z zastosowania analizy podobieństw przez sieci sklepów detalicznych. Pracę kończy podsumowanie, gdzie wskazuje się kierunek dalszych prac i możliwości rozszerzenia analizy poprzez integrację z hurtowniami danych. (abstrakt oryginalny)
EN
Present article gives the description of the associative rules usage in the analysis of the market basket. At the beginning the characteristics of the aforementioned issue was presented, altogether with the examples of the applications in which one was implemented. Throughout the work author brings up the economic benefits for the retailers derived from using the analysis of similarities. The work is summarized by pinpointing the further course of work and possibilities for extension through integrating data warehousing. (original abstract)
XX
Zapewnienie bezpieczeństwa pracy i utrzymanie ciągłości wydobycia to kluczowe zadania systemów telekomunikacyjnych w górnictwie głębinowym. Systemy te, pomimo nowoczesnych i innowacyjnych rozwiązań monitorowania infrastruktury, nie są wolne od wad. Praktycznym problemem jest występowanie fałszywych alarmów o uszkodzeniu infrastruktury. W publikacji wskazano źródła danych, opisano dane, metody ich przekształcenia oraz doboru zmiennych do budowy klasyfikatora. Następnie zaproponowano metodę wykrywania fałszywych alarmów w systemie telekomunikacyjnym kopalni oraz zaprezentowano niektóre reguły dostarczające użytecznej wiedzy z danych. Eksperymenty zostały przeprowadzone na rzeczywistych danych pochodzących z systemu telekomunikacyjnego funkcjonującego w kopalni KGHM Polska Miedź SA.(abstrakt oryginalny)
EN
Ensuring safety and continuity of production is the major task of telecommunication systems in deep mining. These systems, despite their use of modern and innovative infrastructure of monitoring solutions, are not free from imperfections. One of the practical problems are false alarms signaling the occurrences of damaged infrastructures. In the paper, the data sources of the telecommunication system are identified and described, as well as the methods of their preprocessing. To build a classifier, a method of attribute selection is proposed to detect false alarms generated by the telecommunication system of the mine. Experiments were carried out on real data extracted from the telecommunication system operating in the copper mine of the KGHM Polska Miedź SA.(original abstract)
first rewind previous Strona / 10 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.