Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 27

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  wykrywanie anomalii
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
PL
W artykule przedstawiono charakterystykę wybranych ataków możliwych do przeprowadzenia na usługi sieci 5G. Opisano również w jaki sposób można wykorzystać algorytmy sztucznej inteligencji (ang. artificial intelligence, AI) do wykrywania ataków na sieci 5G. Ponadto przedstawiono słabości tych algorytmów, które mogą być wykorzystane przez intruza do naruszenia ich bezpieczeństwa. Artykuł zawiera również niewielką część wyników uzyskanych w ramach prowadzonych badań nad identyfikacją ataków w sieciach pakietowych. Przykładem takiej sieci jest sieć 5G. Za pomocą algorytmów SI dokonano analizy danych dostępnych w zbiorze danych CIC-IDS-2017.
EN
The article presents the application of selected clustering algorithms for detecting anomalies in financial data compared to several dedicated algorithms for this problem. To apply clustering algorithms for anomaly detection, the Determine Abnormal Clusters Algorithm (DACA) was developed and implemented. This parameterized script (DACA) allows clusters containing anomalies to be automatically detected on the basis of defined distance measures. This kind of operation allows clustering algorithms to be quickly and efficiently adapted to anomaly detection. The prepared test environment has allowed for the comparison of selected clustering algorithms. K-Means, Hierarchical Cluster Analysis, K-Medoids, and anomaly detection: Stochastic Outlier Selection, Isolation Forest, Elliptic Envelope. The research has been carried out on real financial data, in particular on the income declared in the asset declarations of the targeted professional group. The experience of financial experts has been used to assess anomalies. Furthermore, the results have been evaluated according to a number of popular classification and clustering measures. The highest result for the investigated financial problem was provided by the K-Medoids algorithm in combination with the DACA script. It is worthwhile to conduct future research on the introduced solutions as an ensemble method.
PL
Artykuł przedstawia zastosowanie wybranych algorytmów klasteryzacji do wykrywania anomalii w danych finansowych w porównaniu do kilku dedykowanych algorytmów dla tego problemu. W celu wykorzystania algorytmów klasteryzacji do wykrywania anomalii opracowano i zaimplementowano Determine Abnormal Clusters Algorithm (DACA). Ten sparametryzowany skrypt umożliwia na automatyczne wykrycie klastrów zawierających anomalie, na podstawie zdefiniowanych miar odległości. Takie działanie pozwala na szybkie i skuteczne dostosowanie algorytmów klasteryzacji do wyszukiwania anomalii. Przygotowane środowisko badawcze pozwoliło na porównanie wybranych algorytmów klasteryzacji: Hierarchical Cluster Analysis, K-Means, K-Medoids oraz wykrywania anomalii: Stochastic Outlier Selection, Isolation Forest, Elliptic Envelope, Badania przeprowadzono na rzeczywistych danych finansowych, w szczególności dotyczących dochodów zadeklarowanych w oświadczeniach majątkowych wybranej grupy zawodowej. Wykorzystano doświadczenie ekspertów finansowych do oceny anomalii. Ponadto, wyniki oceniono na podstawie wielu popularnych miar klasyfikacji i klasteryzacji. Najlepsze wyniki dla badanego problemu finansowego przedstawił algorytm K-Medoids w połączeniu ze skryptem DACA. W przyszłości warto przebadać metody złożone oparte o przedstawione rozwiązanie.
EN
Modern manufacturing systems collect a huge amount of data which gives an opportunity to apply various Machine Learning (ML) techniques. The focus of this paper is on the detection of anomalous behavior in industrial manufacturing systems by considering the temporal nature of the manufacturing process. Long Short-Term Memory (LSTM) networks are applied on a publicly available dataset called Modular Ice-cream factory Dataset on Anomalies in Sensors (MIDAS), which is created using a simulation of a modular manufacturing system for ice cream production. Two different problems are addressed: anomaly detection and anomaly classification. LSTM performance is analysed in terms of accuracy, execution time, and memory consumption and compared with non-time-series ML algorithms including Logistic Regression, Decision Tree, Random Forest, and Multi-Layer Perceptron. The experiments demonstrate the importance of considering the temporal nature of the manufacturing process in detecting anomalous behavior and the superiority in accuracy of LSTM over non-time-series ML algorithms. Additionally, runtime adaptation of the predictions produced by LSTM is proposed to enhance its applicability in a real system.
EN
Clinical notes that describe details about diseases, symptoms, treatments and observed reactions of patients to them, are valuable resources to generate insights about the effectiveness of treatments. Their role in designing better clinical decision making systems is being increasingly acknowledged. However, availability of clinical notes is still an issue due to privacy violation concerns. Hence most of the work done are on small datasets and neither the power of machine learning is fully utilized, nor is it possible to vaidate the models properly. With the availability of Medical Information Mart for Intensive Care (MIMIC-III v1.4) dataset for researchers though, the problem has been somewhat eased. In this paper we have presented an overview of our earlier work on designing deep neural models for prediction of outcomes and hospital stay for patients using MIMIC data. We have also presented new work on patient stratification and explanation generation for patient cohorts. This is early work targeted towards studying trajectories for treatment for different cohorts of patients, which can ultimately lead to discovery of low-risk models for individual patients to ensure better outcomes.
5
Content available remote Anomaly detection in network traffic
EN
The authors of this paper faced the problem of detecting anomalies, understood as potential attacks in network traffic occurring on a document-signing computing cluster. In an infrastructure exposed to the public world, it is extremely difficult to distinguish traffic generated by users from traffic generated by a network attack. The solution the authors present, based on the collected data, determines whether the traffic from the selected sample originated from an attack or not, based on ready-made clustering algorithms. The performance of the following algorithms was compared: DBSCAN, LOF, COF, ECOD and PCA.
PL
Autorzy niniejszej pracy stanęli przed problemem wykrywania anomalii, rozumianych jako potencjalne ataki, w ruchu sieciowym zachodzącym na klastrze obliczeniowym podpisującym dokumenty. W infrastrukturze wystawionej na ´swiat publiczny niezwykle trudno odróźnić ruch generowany przez użytkowników od ruchu generowanego w ramach ataku sieciowego. Rozwiązanie jakie autorzy przedstawiają na podstawie zbieranych danych określa, czy ruch z wybranej próbki powstał w wyniku ataku czy nie, na podstawie gotowych algorytmów grupowania. Porównano działanie następujących algorytmów: DBSCAN, LOF, COF, ECOD oraz PCA.
6
Content available remote Fuzzy quantifier-based fuzzy rough sets
EN
In this paper we apply vague quantification to fuzzy rough sets to introduce fuzzy quantifier based fuzzy rough sets (FQFRS), an intuitive generalization of fuzzy rough sets. We show how several existing models fit in this generalization as well as how it inspires novel models that may improve these existing models. In addition, we introduce several new binary quantification models. Finally, we introduce an adaptation of FQFRS that allows seamless integration of outlier detection algorithms to enhance the robustness of the applications based on FQFRS.
EN
The paper describes and compares two forms of wavelet transformation: discrete (DWT) and continuous (CWT) in the analysis of electrocardiograms (ECG) to detect the anomaly. The anomalies have been limited to two types: cardiac and congestive heart failure. Two independent approaches to the problem have been considered. One is based on discrete wavelet transformation and feature generation based on statistical parameters of the results of the transformed ECG signals. These descriptors, after selection, are delivered as the input attributes to different classifiers. The second approach applies continuous wavelet transformation of ECG signals and the resulting two-dimensional image formed in time-frequency dimensions represents the input to the convolutional neural network, which is responsible for the generation of the diagnostic features and final classification. The experiments have been performed on the publically available database Complex Physiologic Signals PhysioNet. The calculations have been done in Python. The results of both approaches: DWT and CWT have been discussed and compared.
PL
Artykuł predstawia dwa podejścia do wykrywania anomalii w sygnalach ECG. Jako anomalie rozważane są: arytmia i zastoinowa niewydolność serca. Podstawą analizy jest sygnał ECG poddany transformacji falkowej w dwu postaciach: transformacja dyskretna oraz transformacja ciągła. W przypadku transformacji dyskretnej sygnał ECG poddany jest dekompozycji falkowej na kilku poziomach a wyniki tej dekompozycji (sygnały szczegółowe i sygnał aproksymacyjny ostatniego poziomu) podlegają opisowi statystycznemu tworząc zbiór deskryptorów numerycznych – potencjalnych cech diagnostycznych. Po przeprowadzonej selekcji stanowią one atrybuty wejściowe dla zespołu 9 klasyfikatorów. W drugim podejściu sygnał ECG jest poddany ciągłej transformacji falkowej generując dwuwymiarową macierz w postaci obrazu. Zbiór takich obrazów podawany jest na wejście głębokiej sieci neuronowej CNN, która w jednej strukturze dokonuje jednocześnie generacji cech diagnostycznych i klasyfikacji. Eksperymenty numeryczne przeprowadzone zostały na ogólnie dostępnej bazie danych Complex Physiologic Signals PhysioNet. Wyniki eksperymentów wykazały przewagę podejścia wykorzystujacego dyskretną transformację falkową.
EN
This work presents an original model for detecting machine tool anomalies and emergency states through operation data processing. The paper is focused on an elastic hierarchical system for effective data reduction and classification, which encompasses several modules. Firstly, principal component analysis (PCA) is used to perform data reduction of many input signals from big data tree topology structures into two signals representing all of them. Then the technique for segmentation of operating machine data based on dynamic time distortion and hierarchical clustering is used to calculate signal accident characteristics using classifiers such as the maximum level change, a signal trend, the variance of residuals, and others. Data segmentation and analysis techniques enable effective and robust detection of operating machine tool anomalies and emergency states due to almost real-time data collection from strategically placed sensors and results collected from previous production cycles. The emergency state detection model described in this paper could be beneficial for improving the production process, increasing production efficiency by detecting and minimizing machine tool error conditions, as well as improving product quality and overall equipment productivity. The proposed model was tested on H-630 and H-50 machine tools in a real production environment of the Tajmac-ZPS company.
EN
The ARIMA method, time series analysis technique, was proposed to perform short-term ionospheric Total Electron Content (TEC) forecast and to detect TEC anomalies. The success of the method was tested in two major earthquakes that occurred in India (M 7.7 Bhuj EQ, on Jan 26, 2001) and Turkey (M 7.1 Van EQ, on Oct 23, 2011). For ARIMA analysis, we have taken 18 and 29 days of TEC data with a 2-h temporal resolution and train the model with an accuracy of 5.1 and 2.7–2.9 TECU for India and Turkey EQs, respectively. After training the model and optimizing hyper model parameters, we applied on 8 and 9 days’ time-window to observe anomalies. In Bhuj EQ, the negative anomalies are recorded on Jan 19 and 22, 2001. Similarly, positive anomalies are recorded on Jan 23, 24, and 25, 2001. In Van EQ, we recorded a strong positive anomaly on Oct 21, 2011, and in the consecutive days before the earthquake, some weak negative anomalies have also observed. The results showed that ARIMA has an adequate short-term performance of the ionospheric TEC prediction and anomaly detection of the TEC time series.
PL
Ochrona systemu operacyjnego przed infekcjami wirusowymi jest zagadnieniem, nad którym od kilku dekad pracują projektanci oprogramowania antywirusowego. Rosnąca w ostatnich latach złożoność szkodliwego oprogramowania skłoniła naukowców do poszukiwania inspiracji w rozwiązaniach naturalnych, takich jak układ immunologiczny ssaków. W artykule przedstawiono system wykrywania intruzów w systemie operacyjnym wykorzystujący algorytm negatywnej selekcji. Algorytm ten wykorzystuje ciągi binarne zwane receptorami do wykrywania zmian w chronionych programach. W systemie zaimplementowano dwie metody generacji receptorów: metodę losową i metodę szablonów. Metody te zostały przetestowane eksperymentalnie. Wyniki działania metod przeanalizowano i porównano, a następnie wyciągnięto wnioski.
EN
Protection of the operating system against virus infections is an area of research which has been worked on by antivirus software designers since several decades. Increasing malware complexity led scientists to seek inspiration in natural solutions, such as the mammal immune system. In the article, an intrusion detection system has been proposed. The system’s inner workings are based on the negative selection algorithm. The algorithm uses binary strings called receptors to detect modifications in the protected programs. In the system, two receptor generation methods have been presented: the random generation method and the template generation method. The methods have been tested experimentally. The results of both methods have been analysed and compared, and conclusions have been drawn.
EN
This research strives to improve the detection accuracy of Remote-to-Local and User-to-Root attacks by proposing a multi-phase classifier with feature selection used in the second phase of classification. The first phase uses a Naïve Bayes classifier with all the trained features. Feature selection is the process of filtering out useful and relevant features that contribute to an attack class. The proposed feature selection technique is based on Genetic Algorithm with entropy-based weights used for giving importance to each feature in the fitness function. Experiments were conducted on the NSL-KDD dataset using the WEKA machine learning tool. The paper includes the proposed algorithm, experimental setup along with obtained results compared to ones received using widely known and acknowledged techniques.
PL
Opisane prace miały na celu poprawę trafności wykrywania ataków typu Remote-to-Local i User-to-Root przez wprowadzenie klasyfikatora wielofazowego z selekcją cech, zastosowanego w drugiej fazie klasyfikacji. Pierwsza faza wykorzystuje klasyfikator Naïve Bayes ze wszystkimi przetrenowanymi cechami. Selekcja była procesem filtrowania istotnych cech, które przyczyniają się do rozpoznania klasy ataku. Zaproponowana technika doboru cech była oparta na algorytmie genetycznym z wagami uzależnionymi od entropii, wykorzystywanymi do nadawania znaczenia każdej cesze w obrębie funkcji dopasowania. Eksperymenty zostały przeprowadzone na zbiorze danych NSL-KDD przy użyciu narzędzia uczenia maszynowego WEKA. Publikacja obejmuje proponowany algorytm, układ doświadczalny oraz wyniki badań. Rezultat prac został porównany z powszechnie znanymi technikami stosowanymi w detekcji intruzów.
EN
Network models aim to explain patterns of empirical relationships based on mechanisms that operate under various principles for establishing and removing links. The principle of preferential attachment forms a basis for the well-known Barabási–Albert model, which describes a stochastic preferential attachment process where newly added nodes tend to connect to the more highly connected ones. Previous work has shown that a wide class of such models are able to recreate power law degree distributions. This paper characterizes the cumulative degree distribution of the Barabási–Albert model as an invariant set and shows that this set is not only a global attractor, but it is also stable in the sense of Lyapunov. Stability in this context means that, for all initial configurations, the cumulative degree distributions of subsequent networks remain, for all time, close to the limit distribution. We use the stability properties of the distribution to design a semi-supervised technique for the problem of anomalous event detection on networks.
EN
The paper presents results of spatial analysis of huge volume of AIS data with the goal to detect predefined maritime anomalies. The maritime anomalies analysed have been grouped into: traffic analysis, static anomalies, and loitering detection. The analysis was carried out on data describing movement of tankers worldwide in 2015, using sophisticated algorithms and technology capable of handling big data in a fast and efficient manner. The research was conducted as a follow-up of the EDA-funded SIMMO project, which resulted in a maritime surveillance system based on AIS messages enriched with data acquired from open Internet sources.
PL
W artykule zaprezentowano wyniki przestrzennej analizy dużej ilości danych AIS z jednego roku w celu wykrycia wybranych anomalii morskich. Anomalie podzielono na trzy grupy: związane z ruchem, statyczne i wykrywanie tzw. loiteringu-każda z nich została przetestowana na podstawie raportów wysyłanych przez tankowce w 2015 roku. Analizę przeprowadzono przy użyciu zaawansowanych algorytmów i technologii big data pozwalających na szybką ocenę dużych wolumenów danych morskich. Badanie zostało przeprowadzone jako kontynuacja projektu SIMMO, w ramach którego opracowano system nadzoru morskiego oparty na wiadomościach AIS wzbogaconych o dane pozyskiwane z otwartych źródeł internetowych.
PL
Wszechobecne ryzyko ataków teleinformatycznych sprawia, że poprawa jakości algorytmów wykrywania staje się sprawą najwyższej wagi. Technologia Granular Computing (GrC) daje nadzieję na nowy sposób polepszenia klasyfikacji ruchu sieciowego, wykrywania włamań i zmniejszenia wymogów obliczeniowych analizy ruchu sieciowego w czasie rzeczywistym. Niniejszy artykuł przedstawia podstawy Granular Computing, propozycję taksonomii oraz dyskusję przydatności technologii do uogólniania danych. Następnie zaprezentowany jest przegląd najnowszych zastosowań Granular Computing.
EN
With the prevailing risk of cybersecurity breaches, improving the detection algorithms is of utmost importance. We look forward to Granular Computing as a novel, promising way to improve network traffic classification, intrusion detection and reduction in the computational cost of real time traffic analysis. In this paper, a quick primer on granular computing is offered, its properties of abstracting data are looked into. Consecutively, a survey of the most recent Granular Computing implementations, and our proposal for taxonomy is presented.
15
PL
Rozpatrywany jest problem wykrywania anomalii na podstawie zarejestrowanych obserwacji zachowania systemu. Problem jest sformułowany jako zadanie rozpoznawania wzorców zachowania normalnego i zachowania nietypowego. Obydwa wzorce są określane przez wskazanie odpowiednich przykładów. Osobliwość rozwiązywanego zadania wynika z faktu, że zwykle liczebność przykładów jest dużo mniejsza od wymiaru wektora obserwacji. W artykule zostały przedstawione dwie metody detekcji anomalii bazujące na wyznaczaniu rzutów obserwacji na podprzestrzenie wzorców. Wyróżnikiem pierwszej metody jest wykorzystywanie odległości wektora obserwacji od podprzestrzeni wzorców. Druga metoda polega na przeniesieniu zadania rozpoznawania wzorców do podprzestrzeni wzorców.
EN
The paper considers the issue of anomalies detection based on registered observations of a system behavior. The problem is formulated as recognition of normal and anomalous behavior patterns. Both types of patterns are identified by indication of appropriate examples. A peculiarity of this task is that usually the number of examples is far lower than the dimension of vectors describing the observations. Two methods to solve this task have been presented in the paper, based on projecting the observations on the subspace of examples. The first method is based on a distance of the observation vector from the subspace of examples. The second method is based on transferring the pattern recognition problem to the subspace of examples.
EN
The aim of this article is to present one way of solving the difficulties encountered during the classical control of the combustion process. The article presents the problem of the dynamically changing fuel quality delivered to the water-grate boiler type WR-25 in which the heat production process takes place. The methods of determining the calorific value of fuel are then listed. In the next part of the paper, the author presents the mode of operation of the negative selection algorithm and its application to the detection of anomalies in the course of process variables. Then, the method of correcting the incorrect calculations of these variables by means of a genetic algorithm was presented. The results of both algorithms are presented in the last section.
PL
Celem niniejszego artykułu jest przedstawienie jednego ze sposobów rozwiązania napotkanych trudności podczas stosowania klasycznego sterowania procesem spalania. W artykule przedstawiono problem dynamicznie zmieniającej się jakości paliwa dostarczanego do kotła wodno-rusztowego typu WR-25, w którym odbywa się proces wytwarzania ciepła. Następnie wyszczególniono sposoby określania kaloryczności paliwa. W kolejnej części artykułu autor przedstawił sposób działania algorytmu selekcji negatywnej oraz jego zastosowanie do wykrywania anomalii w przebiegu zmiennych procesowych. Następnie przedstawiono sposób korekty błędnych wyliczeń tych zmiennych za pomocą algorytmu genetycznego. W ostatniej części przedstawiono wyniki działania obu algorytmów.
PL
Detekcja potencjalnych anomalii występujących w szeregach czasowych napływających z pomiarów ciśnienia porowego i temperatury w wale przeciwpowodziowym może pozwolić na ocenę jego stabilności. Wykrywanie potencjalnych anomalii wykonano z wykorzystaniem szybkiej transformaty Fouriera, wykonując następnie modele Fouriera. Opracowano bazę danych do przechowywania danych rzeczywistych z pomiarów, przebieg analizy pozwalającej na wykrywanie potencjalnych anomalii oraz gotową aplikację napisaną w języku C pracującą na plikach wsadowych.
EN
Detection of potential anomalies occurring in pore pressure and temperature time series from measurement in flood embankments, could assess an embankment stability. Analysis was perform using Fast Fourier Transform (FFT). An essential element of the work was a database development and creating a C applications.
18
Content available remote Analiza statyczna pracy sieci komputerowej w środowisku LabVIEW
PL
Analiza ruchu sieciowego oraz metod wykrywania nieprawidłowości pracy urządzeń sieciowych stanowi ciekawy problem dla analityków badających sieci komputerowe. Poprawna interpretacja anomalii oraz odpowiednia reakcja na nie może poprawić jakość działania sieci, zapobiec awarii lub skrócić jej czas. W artykule przedstawiono oryginalną aplikację utworzoną w środowisku LabVIEW, z zaimplementowanymi algorytmami do wyznaczania współczynnika Hursta, będącego miarą samopodobieństwa i określenia zależności długoterminowych oraz multifraktalności ruchu sieciowego. Celem aplikacji było zaimplementowanie znanych metod wyznaczania współczynnika Hursta m.in. metody statystyki R/S, metody wartości bezwzględnej oraz zagregowanej wariancji - jako aparatu statystycznego do określenia cech ruchu sieciowego. W badaniach wykorzystano wirtualną sieć testową, której model utworzono w środowisku OPNET Modeler. Przeprowadzona w programie analiza statystyczna wskazała, że poziom samopodobieństwa ruchu sieciowego zawiera się w przedziale od 0,5 do 1, zaś jego wartość przybiera wyższe wartości wraz z rosnącym wypełnieniem pasma sieci. Nieprzerwany ruch sieciowy o małym natężeniu (np. ruch typu VoIP) posiada samopodobieństwo porównywalne do szumu białego równe 0,5 co zaprezentowano w artykule.
EN
Network traffic analysis and the network devices working anomaly detection methods is an interesting problem for analysts researching computer networks. Proper interpretation of the anomalies and appropriate response to it can improve the quality of the network, to prevent a failure or shorten. The paper presents an original application created in the LabVIEW environment, with implemented algorithms to determine the Hurst coefficient, which is a measure of self-similarity and determine the long-range dependencies and multifractal traffic. The aim of the application was to implement known methods of determining the Hurst coefficient, e.g. the R/S statistics method, the absolute value method and the aggregate variance method, as a statistical apparatus to determine the characteristics of network traffic. The study used a virtual test network which model was created in the OPNET Modeler environment. Carried out in the application the statistical analysis indicated that the level of network traffic self-similarity is in the range from 0.5 to 1, and it’s value becomes higher with increasing fulfillment of the network bandwidth. Uninterrupted network traffic with a low intensity (e.g. VoIP traffic type) has a self-similarity comparable to the white noise equal to 0.5 which is presented in the article.
PL
Przedstawiona jest koncepcja wysoce zautomatyzowanego rozwiązania pozwalającego na wykrywanie w przemysłowym ruchu sieciowym sytuacji odbiegających od stanu normalnego (anomalii). Omówione są zastosowania klasycznych sieci bayesowskich i sieci Multi-Entity Bayesian Networks (MEBN) wraz z dyskusją ich stosowalności w praktyce. Prace ilustrują również możliwość wykorzystania istniejącego oprogramowania (na przykładzie systemu Snort) oraz kwestie wymaganych modyfikacji związanych z pracą w sieciach nie-IP.
EN
The paper presents a concept of a highly automated solution allowing detection, in industrial network traffic, of situations differing from the normal state (anomalies). It describes the use of classical Bayesian networks and Multi-Entity Bayesian Networks (MEBN), together with a discussion of their applicability in practice. The work also illustrates the possibility of using existing software (taking Snort system as an example) and the required modifications related to the support for non-IP networks.
PL
Rozwój sieci komputerowych oraz teleinformatyki umożliwił zdobywanie wielkiej ilości danych. Istotna jest jednak wiedza z ich pomocą zdobywana. Jest to możliwe dzięki zastosowaniu eksploracji danych. Przedstawiono podstawowy podział metod eksploracji danych oraz rozliczne ich zastosowania w telekomunikacji. Wśród przykładów można miedzy innymi wyróżnić klasyczny problem filtracji wiadomości elektronicznych, należący do szerszej rodziny wykrywania zdarzeń niepożądanych czy segmentację rynku na potrzeby marketingowe.
EN
The modern development of computer networks and teleinformatics has enabled the acquisition of great amounts of data. However, the discovered knowledge is important. This is possible through the use of data mining. The article presents the basic division of data mining methods and their numerous applications in telecommunications. Examples include, among others, the classic problem of filtering emails, belonging to a wider family of detecting adverse events, and market segmentation for marketing purposes.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.