Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 41

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  hurtownie danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
EN
Very large databases like data warehouses low down over time. Thisis usually due to a large daily increase in the data in the individual tables,counted in millions of records per day. How do wemake sure our queries do not slow down over time? Table partitioning comes in handy, and, when used correctly, can ensure the smooth operation of very large databases with billions of records, even after several years.
PL
Bardzo duże bazy danych typu hurtownie danych z czasem zwalniają. Przyczyną zazwyczaj jest duży dzienny przyrost danych w pojedynczych tabelach liczony w milionach rekordów. Co sprawić aby z czasem nasze zapytania nie działały wolniej. Z pomocą przychodzi partycjonowanie tabel, które użyte w prawidłowy sposób może zapewnić sprawne działanie bardzo dużych bazy danych z miliardami rekordów nawet po kilku latach.
EN
The evolution of Internet of Things and Information and Communication Technology is determined by systems’ ability to efficiently store and process massive amount of data connected with rapid flow of information. The smart devices creating Internet of Things produce massive amount of data, and while smart devices are independent, data analyst needs an effective mechanism to collect all these data, aggregate them and analyse. In this paper author presents Distributed Spatio-Temporal Data Warehouse systems as a platform to collect and analyse Internet of Things data such as smart sensor data and mobility data
PL
W artykule prezentowany jest system decyzyjny 2MDSS, służący do obsługi inteligentnych urządzeń mierzących zużycie mediów, takich jak gaz, woda, energia elektryczna itp. W ramach ww. systemu proponowany jest algorytm ALBQ równoważący obciążenia w rozproszonym środowisku hurtowni danych wraz z analizą jego przydatności. Zarysowany jest również problem projektowania i oceny wydajności trajektoryjnych Hurtowni Danych oraz propozycja modelu mobilności RLMM do wykorzystania w tej tematyce. W artykule poruszono istniejący i coraz bardziej widoczny problem zabezpieczenia urządzeń IoT. Format oraz liczba danych przesyłanych z ww. urządzeń może prowadzić do groźnych i skutecznych ataków DDoS. Na dziś zagadnienie to pozostaje nadal otwartym problemem badawczym o kluczowym znaczeniu dla poprawnego funkcjonowania wielu istotnych gałęzi gospodarki.
PL
W artykule opisano zagadnienia związane z operacyjnymi bazami i hurtowniami danych. Dokonano podziału ról w zespole tworzącym i obsługującym hurtownię danych, przedstawiono fazy metodyki tworzenia hurtowni danych, Transakcyjna baza danych posłuży w kolejnych krokach do budowy hurtowni danych w oparciu o modele hurtowni danych zastosowane dla analizy wielowymiarowej. Przedstawiono główne zadania związane z planowaniem, projektowaniem i wdrażaniem hurtowni danych w przedsiębiorstwie. Do opracowania projektu i wdrożenia HD wykorzystano narzędzia informatyczne do zarządzania projektami oraz narzędzia grafiki menedżerskiej i inżynierskiej.
EN
The paper deals with operational databases and data warehouses issues. Participant roles of team creating and supporting data warehouse development and management are described. Phases and tasks of creating a data warehouse are presented. Transactional database will be used in subsequent steps to build a data warehouse based on data warehouse models. These models are used for multivariate analysis. Main tasks of planning, design and implementation of an enterprise data warehouse are presented. Project management and engineering graphics software tools are used for data warehouse planning, design and implementation.
PL
Pomimo zwiększającej się złożoności systemów informatycznych na rynku można zaobserwować tendencje do upraszczania procedur ich wdrażania przy jednoczesnym skróceniu czasu trwania wdrożenia. Rezultatem tego zjawiska jest stosowanie metodyk zwinnych. Artykuł przedstawia analizę stosowania zwinnych metodyk we wdrożeniach hurtowni danych w ramach zarządzania zmieniającymi się wymaganiami użytkowników.
EN
Although the complexity of information systems has increased, a tendency to simplify procedures of their implementation can be observed. Therefore there is a need of using agile software development methods. The article shows the analysis of using agile methods for data warehousing implementations regarding changes of user requirements.
PL
Niniejszy artykuł prezentuje autorską koncepcję wielowarstwowego podejścia do budowy systemów informatycznych klasy Business Intelligence. Przedmiot badań jest wynikiem analizy stosowanych architektur tej klasy systemów w kontekście występujących niepowodzeń podczas ich wdrożeń. Proponowana architektura wychodzi naprzeciw oczekiwaniom, jakie stawiane są współczesnym systemom informatycznym w zakresie dostosowywania się do zmieniających się warunków otoczenia biznesowego, takich jak zwiększone potrzeby informacyjne użytkowników.
EN
The article presents original concept of multilayer approach in building Business Intelligence systems. The subject of the study is the result of the analysis of existing architectures of such systems in the context of implementation failures. The architecture proposed in this article towards the expectations of modern information systems, in the scope of changing conditions in business environment, such as changing user requirements.
6
EN
The article describes few methods of managing data history in databases and data marts. There are many types of dealing with the history of the data. This article will show us some examples, point advantages and disadvantages of each of the method and show us possible scenarios of use.
PL
Artykuł opisuje sposób zarządzania historią tabel wymiarowych w bazach danych i hurtowniach danych. Istnieje kilka sposobów na archiwizowanie historii. Artykuł ma na celu przybliżenie ich funkcjonalności popartej przykładami, wskazanie zalet i wad oraz możliwych scenariuszy użycia.
7
Content available remote Using ORACLE tools to generate Multidimensional Model in Warehouse
EN
The paper presents modern techniques of data modelling and processing, collected by the company. It presents the process of multidimensional data modelling (include the transformation of logical structure to relational structure and next transformation to Multidimensional Model of warehouse in star or snowflake schema). It also shows the ETL process and methods of creating OLAP cubes by use of ORACLE tools to support decision making by business analysts. An approach based on data mining techniques allows analysts to capture certain features in customers, to offer dedicated products for the customer groups. Based on customer behaviour can be concluded about his tendencies to their certain behaviours and preferences.
PL
W pracy zaprezentowano współczesne techniki modelowania i przetwarzania danych pozyskiwanych przez instytucje. Artykuł przedstawia proces modelowania wielowymiarowych danych oraz proces ETL do momentu ich prezentacji z użyciem narzędzi firmy ORACLE. Przedstawiono metody tworzenia kostek OLAP wspomagające proces podejmowania decyzji przez analityków biznesowych. Podejście oparte na technikach data mining pozwala analitykom uchwycić pewne cechy wspólne dla klientów, w celu złożenia oferty produktów dedykowanych dla konkretnych grup. Na podstawie zachowań klientów można wnioskować o ich skłonnościach do pewnych zachowań i preferencji.
PL
W artykule zaprezentowano współczesne techniki przetwarzania danych pozyskiwanych przez korporacje i instytucje finansowe. Przedstawiono proces przepływu danych od momentu ich pozyskania do momentu otrzymania końcowych wyników obliczeń i uzyskania wiedzy. Opracowano i zaprezentowano aplikację, która pozwala użytkownikowi na szybkie i skuteczne raportowanie informacji z systemu oraz wspomaga proces podejmowania decyzji we wszystkich aspektach działalności organizacji przez jej pracowników począwszy od doradcy, skończywszy na kadrze zarządzającej. W procesie projektowania systemu uwzględniono różnorakie aspekty działalności korporacji finansowych.
EN
The paper presents a modern data acquisition techniques and techniques of the data processing obtained by corporations and financial institutions. It also presents the data flow process from the beginning (moment of obtaining the data) to the final results of the calculations and knowledge. It presents an developed application that allows users to quickly and effectively reporting information from the system and assists in decision-making in all aspects of the organization by its employees as a staff adviser to the ending of management.
PL
Współczesne systemy analityczne coraz częściej sięgają po nowe sposoby analizy danych oparte na rozmytym wnioskowaniu i przetwarzaniu informacji, która nie zawsze jest reprezentowana w sposób precyzyjny. W niniejszym artykule zaprezentowano nowatorski, w pełni funkcjonalny, opracowany i zrealizowany przez autorów system hurtowni danych rozmytych (FDW, Fuzzy Data Warehouse). Hurtownia danych rozmytych stanowi repozytorium danych, które przechowuje zarówno dane precyzyjne, jak i dane rozmyte oraz pozwala na klasyczne i rozmyte przetwarzanie zgromadzonych w niej danych. W artykule zebrano najważniejsze cechy funkcjonalne systemu FDW oraz wykonanej przez autorów aplikacji analitycznej FDW Browser, należącej do klasy narzędzi eksploracji danych Fuzzy-OLAP.
EN
Modern analytical tools increasingly make use of new ways of data analysis that base on fuzzy reasoning and fuzzy processing of information. In the paper, we present a Fuzzy Data Warehouse system (FDW), which we have designed and developed. Fuzzy Data Warehouse (FDW) is a data repository, which contains fuzzy data and allows a fuzzy processing of the data. In the paper, we focus on the most important functional features of the FDW system and our newly developed FDW Browser, which is an analytical application adhering to the Fuzzy-OLAP class of data exploration tools.
PL
Wprowadzenie rozmytości do systemów hurtowni danych pozwala na przetwarzanie danych na wyższym poziomie abstrakcji i wprowadza możliwość analizy danych o nieprecyzyjnym charakterze. Ponadto, umożliwia wyrażanie różnych wskaźników biznesowych w języku naturalnym przy użyciu ogólnych sformułowań typu: dużo, mało, około 10, prawie wszyscy i in., reprezentowanych przez odpowiednie funkcje przynależności. Implementacja hurtowni danych rozmytych i narzędzi analizy danych wykorzystujących elementy logiki rozmytej napotyka na szereg problemów natury technicznej, występujących po stronie istniejących systemów zarządzania bazą danych. W niniejszym artykule, na przykładzie systemu zrealizowanego przez autorów, zaprezentowano architekturę i praktyczne aspekty implementacji hurtowni danych rozmytych.
EN
Incorporation of fuzziness into data warehouse systems gives the opportunity to process data at higher level of abstraction and improves the analysis of imprecise data. It also gives the possibility to express business indicators in natural language using terms, like: high, low, about 10, almost all, etc., represented by appropriate membership functions. There are many technical, server-side problems that appear while developing the Fuzzy Data Warehouse with the use of existing database management systems (DBMSs). In the paper, we show architecture and practical aspects of the implementation of the Fuzzy Data Warehouse system based on our own personal experiences.
PL
Praca zawiera opis rozszerzenia MDX (MultiDimensional Extension) do tworzenia hurtowni danych w oparciu o oprogramowanie Microsoft SQL Server 2005. Tworzenie i zarządzanie hurtownią danych odbywa się w oparciu o środowisko graficzne Microsoft Visual Studio 2005, czysty język MDX przy użyciu usługi Analysis Services oraz przy pomocy aplikacji windowsowej napisanej w języku C#. Aplikacja pozwala na tworzenie dodatkowych miar kalkulowanych oraz przeglądanie danych zawartych w kostkach analitycznych. Użyta w aplikacji biblioteka ADOMD.NET odpowiada za komunikację programu z serwerem analitycznym Microsoft Analysis Services.
EN
The paper widely described multidimensional extension of SQL query language MDX SQL. It can be used for structures creation and data processing for data warehouse at Microsoft SQL Server platform. First part of this work concentrated on methods of creation using visual Analysis Services built in tools. Special attention was dedicated to Key Performance Indicators and Actions creation methods. Both structures was described in very precise way. The second part is dedicated to examples of MDX queries with special attention for presentation of KPI values. The last part described functionality of created .NET client application, which give opportunity to create, testify and process MDX queries. The ADOMD library use in client program was shortly described. Some exemplary results was presented.
PL
Niniejsza monografia jest poświęcona nowej wizji ewolucji hurtowni danych (DW), której wyrazem jest nowa generacja modeli DW, o nazwie Zaawansowane Hurtownie Danych (AdvDW). Zdolność formułowania nowych modeli klasycznych DW dla nowych wyzwań globalnych, przy szybkim postępie ICT, jest znacznie ograniczona, natomiast stan badań nad przestrzenno-temporalnymi hurtowniami danych (STDW) jest dalece niewystarczający. Prognozuje się, że w kolejnej dekadzie 2010 nowym celem ICT będą: "Analityczne systemy zaawansowanych hurtowni danych, zorientowane na rozlegle przetwarzanie (rozproszone, równoległe, gridowe, agentowe) w sieciach (szkieletowych, bezprzewodowych, przemysłowych), ukierunkowane na zaawansowaną analizę ogromnych (petabajto-wych) wolumenów (repozytoriów) danych strumieniowych". Zatem model wizji ewolucji DW ma na celu podniesienie poziomu badań o stopień wyżej, przez promowanie modeli AdvDW, jako samodzielnego podejścia, a nie tylko cechy wynikającej z bardziej uogólnionych własności klasycznych DW. Pomocna w modelowaniu wizji ewolucji DW jest Lista 15 kluczowych wyzwań badawczych w dziedzinie DW. Jako całościowe rozwiązanie ramowe problematyki badawczej, objętej tą listą opracowano koncepcje ramowe, modele, metody, prototypy, charakterystyki efektywnościowe i ich analizy w zakresie zagadnień badawczych: 1. Wysoce Hierachiczne Systemy Agregacji i E-Receptorów 2HAa*, w tym Decyzyjny System Monitorowania i Dystrybucji Mediów (2MDSS). 2. Spichlerz Agregatów, w tym Wielopierścieniowa Hurtowni Danych (MultiRingDW) o schemacie rozszerzonej gwiazdy kaskadowej. 3. Indeksy przestrzenne ogólnego przeznaczenia i rodzina agregacyjnych drzew przestrzennych o wysokiej efektywności. 4. Przestrzenno-czasowe struktury agregatów, jako wielopoziomowe hybrydowe agregacyjne drzewa indeksów przestrzennych i czasowych oraz specjalne struktury wspomagające agregację danych przestrzenno-czasowych. 5. Materializowana Lista Agregatów (MAL) i zintegrowane z nią indeksy. 6. Ekstrakcja danych i jej odtwarzanie. 7. Przestrzenno-temporalne hurtownie danych (D)STDW, jako I klasa AdvDW. 8. Silnie chronione hurtownie danych SPrevDW, jako II klasa AdvDW. 9. Gridowe hurtownie danych GDW-
EN
The following dissertation presents a new vision of Data Warehouses (DW) evolution -a new generation of DW models called Advanced Data Warehouses (AdvDW). The ability to formulate new models of classical data warehouse for new global challenges is strongly limited. Moreover, the research on spatio-temporal data warehouses (STDW) is rather insufficient. Forecasts are that in the next decade the new goal of ITC will be "Analytical advanced data warehouse systems oriented on massive processing (distributed, parallel, grid, agent) in networks (framework, wireless, industrial) directed to advanced analysis of huge (petabyte) volumes (repositories) of a stream data". The vision of DW evolution presented in the following work creates a next level of research promoting AdvDW models as a self-reliant approach being much more than only features derived from generalized nature of classical DWs. To specify the model of DW evolution vision a list of 15 key challenges in DWs was created. As an all-out solutions for problems from the list, framework concepts, models, methods, prototypes, effective characteristics and their analyses were defined: 1. Highly Hierarchical Aggregation and E-Receptors Systems (2HAa*), including Monitoring and Media Distribution Support System (2MDSS). 2. Aggregates Granary including MultiRing Data Warehouse (MultiRingDW) with expanded cascaded star schema. 3. General purpose spatial indices and a family of highly efficient aggregation trees. 4. Spatio-temporal aggregates structures as multilevel hybrid aggregate tree of the spatial and temporal indexes and special structures supporting the spatio-temporal data aggregation. 5. Materialized Aggregates List (MAL) with integrated indexes. 6. Data extraction and its resumption. 7. Spatio - temporal data warehouses (D)STDW as the class I of AdvDW. 8. Strongly preserved data warehouses (SPrevDW) as the class II of AdvDW. Abstract 381 9. Grid data warehouses (GDWSA) as the class III of AdvDW. 10. Stream data warehouses StrDW) as the class IV of AdvDW. The realization of above-mentioned problem groups was verified with prototype software basing on Java and C++ environments running on Windows and Solaris platforms and databases Oracle 9i/10(ll)g, MSSQL, IBM DB2. A number of effectiveness characteristics of AdvDW was presented along with their evaluation. The framework of future research is a continuation of the presented approach: Phase I: Classic data warehouses. Phase II: Advanced data warehouses AdvDW. Phase III: Branch systems 2HAa basing on AdvDW. Phase IV: MultiRing Data Warehouse. Phase V: Multibranch 2HAa systems basing on MultiRingDW. Phase VI: Aggregates granary (A4G). Phase VII: MultiBranch 2HAa systems basing on A4G. Current works include Phase II and Phase III with special focus on prototypes of advanced analytical systems. The progress marks in realization of the 7FSEDW will be yearly and long term works. In the dissertation a choice of such subjects is presented.
PL
W pracy przedstawiono wybrane zagadnienia dotyczące hurtowni danych i, związanych z nimi, procesów ETL. Pierwsza część pracy opisuje zagadnienia teoretyczne takie jak architektura hurtowni oraz reprezentacja danych. Druga część pracy to opis zagadnień praktycznych związanych z hurtowniami danych i procesami ETL. Przedstawiono w niej rozpoznane mechanizmy ETL oraz wybrane dedykowane im narzędzia programistyczne w badanych SZBD Oracle 10g i Microsoft SQL Server 2005. Wszystkie rozpoznane mechanizmy zostały zaimplementowane w testowej hurtowni danych zrealizowanej w obu środowiskach. Zbadano ich działanie i możliwości. Praca zakończona jest wnioskami z przeprowadzonych badań.
EN
This paper describes the issues of data warehouse and associated with them ETL-process. The first part of the work describes the theoretical issues such as warehouese architecture and data representation. The second part of the job is related to the pratcical issues associated wih the warchouses and ETL mechanisms and dedicated them programming tiils in tested SZBD Orcale 10g and Microsoft SQL Server 2005 were there presented. All the mechanisms have been implemented in both environments for test data warehouse. They possibilities and operation were examined. The works is completed with the conclusions of the tests.
PL
W celu zasilania rozproszonych systemów analitycznych z rozproszonych systemów źródłowych zaproponowano rozproszony system ekstrakcji strumieni danych, oparty na sieci inżynierów procesu ETL. Taka sieć ETLPE, oparta na mechanizmie rozproszonych zasobów, pozwala na automatyzację projektowania znacznie rozproszonego strumieniowego procesu ETL i zapewnienie pełnej jego kontroli z dowolnego miejsca.
EN
In order to feed widely distributed analytical systems with data from widely distributed source systems, a widely distributed stream data extraction system was proposed. The system bases on ETL process engineers. Such network, the ETLPE, based on a distributed resources mechanism, allows automation of the widely distributed stream process design and ensures fully remote online control.
15
Content available remote Analytical tools for business intelligence in spatial databases
EN
The term Business Intelligence (BI) stands for technologies and applications that support decision making in commercial business. It is based on data analysis in a specific kind of database, termed the data warehouse. The architecture of data warehouses is optimized for searching, analysing and reporting of data. Nowadays, some spatial databases, especially in the commercial area, are so large and complex that simple analysis and reporting are not able to show all relationships and connections between data. The article focuses on two BI tools: On-line Analytical Processing (OLAP) and data mining, and on the potential for using these tools in spatial databases. OLAP allows the creation of multidimensional views of data reports in the form of multidimensional cubes. In the spatial database, such views can be useful to show complex reports, including information about spatial location, time and other dimensions. Data mining is based on analytical searching of some regular relationship and pattern in databases, which are hidden and not visible while using simple analysis. The aim of data mining for spatial databases, can be to predict the influence of a geographic object on (a) neighbour object(s), including their attributes.
PL
Termin Business Intelligence (BI) oznacza technologie i aplikacje, które wspomagają podejmowanie decyzji w sferze biznesowej. Opiera się na analizie danych w specyficznym rodzaju baz danych, które określane są mianem hurtowni danych. Architektura hurtowni danych zoptymalizowana jest pod kątem przeszukiwania, analizy i raportowania zawartych w niej danych. Obecnie niektóre bazy danych przestrzennych, zwłaszcza w zastosowaniu komercyjnym, są tak obszerne i złożone, że prosta analiza i raportowanie nie są w stanie pokazać wszystkich związków pomiędzy danymi. Niniejszy artykuł skupia się na dwóch narzędziach BI: przetwarzaniem analitycznym on-line (OLAP, ang. On-line Analytical Processing) i eksploracją danych (ang. data mining) oraz możliwościami zastosowania tych narzędzi w bazach danych przestrzennych. OLAP pozawala na tworzenie wielowymiarowych widoków raportowych w formie wielowymiarowych kostek. W bazie danych przestrzennych widoki takie mogą być użyteczne do pokazania złożonego raportu, zawierającego informację o położeniu przestrzennym, czasie, czy dowolnym innym wymiarze. Eksploracja danych jest techniką opartą na analitycznym wyszukiwaniu w bazach danych stałych związków i wzorów, które są ukryte i niewidoczne podczas stosowania prostych analiz. Celem eksploracji danych w przypadku baz danych przestrzennych może być przewidywanie wpływu obiektu geograficznego na obiekt(y) sąsiedni, przy uwzględnieniu jego atrybutów.
PL
Uzasadniono potrzebę tworzenia Informatycznego Systemu Metrologicznej Bazy Danych przeznaczonego dla sieci laboratoriów badawczych i wzorcujących. Wyjaśniono, dlaczego system taki powinien składać się z dwóch baz danych: bazy operacyjnej oraz bazy analitycznej zwanej także hurtownią danych. Opisano najważniejsze etapy tworzenia takiego systemu decydujące o jego ostatecznej strukturze zapewniającej oczekiwaną funkcjonalność oraz dostępność dla różnego rodzaju laboratoriów za pomocą sieci Internet. Przedstawiono wyniki badań opracowanego modelu operacyjnej bazy danych, stanowiącej część tworzonego systemu. Zaproponowano porządek dalszych działań zmierzających do utworzenia części analitycznej, która stanowić będzie drugą istotną część tego systemu. Wskazano na potrzebę właściwego podziału ról w zespole realizującym projekt i uzasadniono przyjętą metodykę dalszych działań.
EN
The need for developing the Metrological Database Information System for the network of testing and calibration laboratories is shown in the paper. It is explained why such a system should consist of two databases: operational and analytical (called also a data warehouse). The most important stages of creating such a system deciding on its final structure are described. The structure ensures the expected functionality and availability of different kinds of laboratories by the Internet. The investigation results of the model of the operating database being the part of the created system are presented. There is proposed the sequence of further works aiming at creation of the analytical part which will be the second, essential part of this system. The need of the appropriate division of roles in the team carrying out the project is emphasized and the assumed methodology of further works is shown.
PL
Rozdział omawia problemy związane z projektem o nazwie "Laboratorium Hurtowni Danych poziomu MS SQL Server 2005" (HDM5), testowaniem ćwiczeń przez studentów oraz uwagi ogólne, co do sposobu przygotowania jego udostępnienia wszystkim zainteresowanym Uczelniom Wyższym w Polsce. Podjęto także próbę ustanowienia standardu przygotowania i prowadzenia zajęć z przedmiotu "Hurtownie danych" w kontekście zarówno laboratorium jak i wykładu ze szczególnym uwzględnieniem środowiska narzędziowego na przykładzie MS SQL Serwer 2005.
EN
The chapter presents problems connected with the "The Data Warehouse Laboratory on the MS SQL SERVER 2005 level" (HDM5) Project. It discussed how project was tested by college students. General remarks that concerns providing the project to all interested polish colleges are given. An attempt was made to elaborate certain standards of preparation and carrying out courses in the "Data Warehousing" subject. Standards concerns lectures and laboratories with focus on MS SQL Server 2005 environment.
PL
W pracy dokonano przeglądu algorytmów zgłębiania wiedzy, które zostały zaimplementowane w środowisku MS SQL Server 2005, pod kątem możliwości ich wykorzystania do ekstrakcji informacji z danych onkologicznych. Dane te pochodzą ze zbioru udostępnionego przez University of Wisconsin Hospitals. Ponadto aktualnie gromadzone są dane z ankiet (2006 rok) przeprowadzonych wśród pacjentek Samodzielnego Publicznego Szpitala Klinicznego Nr 1 we Wrocławiu, w ramach rządowego Programu Profilaktyki Raka Piersi. Analizy mają na celu wyodrębnienie istotnych czynników mających największy wpływ na zwiększenie ryzyka zachorowania. Wyniki aktualnie prowadzonych prac uzasadniają stosowanie algorytmów zaimplementowanych w MS SQL Server 2005, w szczególności drzew decyzyjnych, sieci neuronowych, klaste-ryzacji, regresji logarytmicznej oraz naiwnego modelu Bayesa. W przyszłości w oparciu o uzyskane wyniki zostaną zaproponowane modele analityczne dotyczące zachorowań na raka piersi i prototyp systemu wspierania podejmowania decyzji (diagnozowania).
EN
The aim of this paper is an overview of the data mining algorithms implemented in the Microsoft SQL Server 2005 environment with regard to their applicability to oncological dataset (the government-sponsored program of breast cancer prophylaxis held in 2006 in Wroclaw, Poland, among Polish women aged between 50 and 69). In the initial phase the analyses of the data mining algorithms are based on the data from the University of Wisconsin Hospitals, Madison, USA from Dr. William H. Wolberg. A lot of research is conducted in the field of applications of computer science in medicine in order to facilitate diagnoses and treatment. Specialists propose new ways of mining medical data for patterns (models) and concealed information. All the models had high predicting accuracy and relatively low type-I and type-II errors. The analyses provided a list of the most influential and important attributes in the dataset which should be considered during diagnoses and treatment. Future perspectives of the research include extraction of tangible knowledge from the oncological data gained from the breast cancer surveys. A medical decision support system will be then created based on these results.
PL
W artykule przedstawiono podstawowe techniki dogłębnej analizy wielkich zbiorów danych zwanych Data Mining. W pierwszej części pracy wyjaśniono definicję oraz cele i zakres drążenia danych. Przedstawiono również klasyfikację metod i algorytmów Data Mining. W drugiej części pracy omówiono podstawowe metody wyszukiwania reguł asocjacyjnych, klasyfikowania i segmentacji. Opisano również autorską metodę segmentacji opartą na wykorzystaniu algorytmów genetycznych.
PL
W artykule przedstawiono problematykę przyrostowych metod drążenia danych w nowoczesnej hurtowni. Pierwsza część pracy stanowi wyjaśnienie, czym są metody przyrostowe i dlaczego są tak ważne w funkcjonowaniu hurtowni. W dalszej części artykułu pokazano, jakie metody drążenia danych znalazły zastosowanie w typowych systemach bazodanowych Oracle i SQL Server i jakie w związku tym autorzy prcy widzą dalsze kierunki swoich badań. W ostatniej części parcy pokazano na przykładzie trzech reprezentatywnych metod jak metody klasyczne można przekształcić na ich wersje przyrostowe.
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.