Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 10

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  modele danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Thespis: Causally-consistent OLTP
EN
Data Consistency defines the validity of a data set according to some set of rules, and different levels of data consistency have been proposed. Causal consistency is the strongest type of consistency possible when data is stored in multiple locations, and fault tolerance is desired. Thespis is a middleware that leverages the Actor model to implement causal consistency over a DBMS, whilst abstracting complexities for application developers behind a REST interface. ThespisTRX is an extension that provides read-only transaction capabilities, whilst ThespisDIIP is another extension that handles distributed integrity invariant preservation. Here, we analyse standard transactional workloads on the relational data model, which is richer than the key-value data model supported by the Thespis interface. We show the applicability of the Thespis approach for this data model by designing new operations for the Thespis interface, which ensure correct execution of such workloads in a convergent, causally consistent distributed environment.
PL
Powołana przez GS1 Polska grupa robocza opracowała w 2019 r. nowy model danych, zgodny z potrzebami polskiego rynku. W efekcie poprawiła się jakość danych produktowych, wpływając na zmiany w zakresie obsługi procesów sprzedaży oraz bezpieczeństwa - zarówno dostawców, pośredników, jak i sieci handlowych.
3
EN
The rapid growth and distribution of IT systems increases their complexity and aggravates operation and maintenance. To sustain control over large sets of hosts and the connecting networks, monitoring solutions are employed and constantly enhanced. They collect diverse key performance indicators (KPIs) (e.g. CPU utilization, allocated memory, etc.) and provide detailed information about the system state. Storing such metrics over a period of time naturally raises the motivation of predicting future KPI progress based on past observations. This allows different ahead of time optimizations like anomaly detection or predictive maintenance. Predicting the future progress of KPIs can be defined as a time series forecasting problem. Although, a variety of time series forecasting methods exist, forecasting the progress of IT system KPIs is very hard. First, KPI types like CPU utilization or allocated memory are very different and hard to be modelled by the same model. Second, system components are interconnected and constantly changing due to soft- or firmware updates and hardware modernization. Thus a frequent model retraining or fine-tuning must be expected. Therefore, we propose a lightweight solution for KPI series prediction based on historic observations. It consists of a weighted heterogeneous ensemble method composed of two models - a neural network and a mean predictor. As ensemble method a weighted summation is used, whereby a heuristic is employed to set the weights. The lightweight nature allows to train models individually on each KPI series and makes model retraining feasible when system changes occur. The modelling approach is evaluated on the available FedCSIS 2020 challenge dataset and achieves an overall R^2 score of 0.10 on the preliminary 10\% test data and 0.15 on the complete test data. We publish our code on the following github repository: https://github.com/citlab/fed\_challenge.
4
Content available remote Data Mining-Based Phishing Detection
EN
Webpages can be faked easily nowadays and as there are many internet users, it is not hard to find some becoming victims of them. Simultaneously, it is not uncommon these days that more and more activities such as banking and shopping are being moved to the internet, which may lead to huge financial losses. In this paper, a developed Chrome plugin for data mining-based detection of phishing webpages is described. The plugin is written in JavaScript and it uses a C4.5 decision tree model created on the basis of collected data with eight describing attributes. The usability of the model is validated with 10-fold cross-validation and the computation of sensitivity, specificity and overall accuracy. The achieved results of experiments are promising.
PL
Tomasz Kapuściński, absolwent Akademii Morskiej w Szczecinie. Doświadczenie w zakresie zarządzania łańcuchem dostaw zdobywał i pogłębiał w trakcie 13-letniej pracy w Procter&Gamble. W koncernie pracował w obszarach systemów łańcucha logistycznego, a także marketingu bezpośredniego i nowoczesnych technologii. Jednym z ważniejszych doświadczeń było uczestnictwo w grupie roboczej ECR-GS1 do spraw EDI oraz aktywne uczestnictwo we wdrożeniu EDI w Polsce i na Bałkanach. Od 2012 roku pełni funkcję Global Head of Data w firmie Brandbank (a Nielsen Company), która w całości oparła swój core business na standardach GS1. W Brandbank odpowiedzialny był m.in. za projekty związane z wdrożeniem wymagań prawnych dot. Rozporządzeń 1169/2011 i CLP, obecnie zaś odpowiada za wdrożenie projektu GDSN. Od początku istnienia Grup Roboczych GS1-ECR 1169/2011 oraz GDSN bierze w nich aktywny udział. Aktywnie współpracuje także z organizacjami GS1 w Polsce oraz Wielkiej Brytanii.
7
Content available remote Ewolucja realizacji zapytań w systemach akwizycji wiedzy
PL
W artykule przedstawiono rozwój modeli baz danych I ewolucję realizacji zapytań w systemach akwizycji wiedzy z baz danych. Omówiono modele: hierarchiczny, sieciowy i relacyjny. Ich rozwinięciem są modele rozmyte oraz obiektowe (semantyczne). Wskazano prawdopodobne kierunki rozwoju systemów baz danych i realizacji zapytań.
EN
The paper presents the development of databases models and the evolution of questions realization In knowledge acquisition from databases systems. Hierarchical, network and relational models has been discussed. Their deployments are fuzzy models and object-oriented (semantic) models. Probable directions of the development of databases systems and queries realizations has been showed.
PL
W pracy przedstawiono proces modelowania danych na poziomie konceptualnym. Omówiono podstawowe etapy procesu modelowania danych oraz wyjaśniono kluczowe problemy występujące w tym procesie. Ponadto, zaproponowano miary do oceny jakości modeli. Przykład ilustrujący realizację podstawowych etapów procesu modelowania danych jest jednocześnie formą dyskusji problemów związanych transformacją modeli na poziomie konceptualnym, wykorzystując refaktoryzację i uściślanie w celu poprawy jakości modeli.
EN
The paper presents the process of data modeling at conceptual level. There are discussed the basic stages of the data modeling process. Key problems specific for this process are explained. Additionally the measures of quality data model evaluation are defined. Example of development of conceptual data models is shown. The way of improving the quality of the data models by using refactoring and refining is discussed.
PL
W artykule przedstawiono wpływ narzędzi do tworzenia aplikacji bazodanowych na projektowanie modelu danych. Wskazano duży wpływ dostarczanych przez narzędzia możliwości na dobór algorytmów przetwarzania i ich adaptacji do modelu danych.
EN
The impact of tools used for creating database applications on the design of a data model is presented. The importance of possibilities offered by the tools for selection of processing algorithms and their adaptation to the data model i
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.