Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 14

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  decision rule
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The resource allocation problem has been investigated in many contributions both for the deterministic (known parameters) and stochastic case (scenarios with known probability distribution). In this paper we propose a decision rule enabling one to find a proper solution under complete uncertainty, i.e. when possible scenarios are known, but the decision maker has no information (or does not intend to use it) about their likelihood. The procedure takes into account the decision maker’s nature and the specificity of particular sets of possible cumulative payoffs (range, average, asymmetry, dispersion).
PL
Problem rozdziału zasobów jest analizowany w wielu pracach zarówno dla przypadku deterministycznego (znane parametry), jak i stochastycznego (scenariusze ze znanym prawdopodobieństwem). W tym opracowaniu proponowana jest reguła decyzyjna umożliwiająca wyznaczenie odpowiedniego rozwiązania w warunkach całkowitej niepewności (znane są scenariusze, lecz decydent nie dysponuje wiedzą o prawdopodobieństwie bądź nie zamierza z tej wiedzy skorzystać). Podejście uwzględnia naturę decydenta oraz charakterystyczne cechy poszczególnych zbiorów możliwych skumulowanych wypłat (przedział, średnia, asymetria, rozproszenie).
EN
In this paper the pre-clustering algorithm with the modified decision rule has been presented. The application of pre-clustering algorithm answers the question whether to carry out the clustering or would it result in the appearance of artificial structure (input data is one cluster and it is unnecessary to divide it). The versatility and simplicity of this algorithm allows using it in a various fields of science and technology. The pros and cons of pre-clustering algorithm have been also considered.
PL
W tej pracy został przedstawiony algorytm wstępnego klastrowania oraz zmodyfikowana alternatywna reguła decyzyjna. Zastosowania algorytmu wstępnego klastrowania odpowiada na pytanie czy potrzebna procedura klastrowania czy spowodowałoby to pojawienia sztucznej struktury (dane wejściowe są jednym klasterem i nie ma potrzeby podziału). Uniwersalność i prostota tego algorytmu pozwala na wykorzystanie go w różnych dziedzinach nauki i techniki. Zalety i wady algorytmu wstępnego klastrowania zostały również rozważone.
EN
The paper deals with the problem of developing probabilistic algorithm for system level self-diagnosis. The main goal of the suggested algorithm is to minimize the mean time of its executing. The algorithm is based on the computing of the posterior probability of fault-free state of each system unit. Final decision about unit’s state is made on the chosen decision rule. The execution of the probabilistic algorithm is elucidated with the help of simple example and then explained for the case of more complex systems.
PL
Artykuł opisuje problem projektowania probabilistycznego algorytmu autodiagnostyki na poziomie systemu. Głównym celem proponowanego algorytmu jest minimalizacja średniego czasu wykonania. Algorytm oparty jest na obliczeniach prawdopodobieństwa a posteriori bezawaryjnego stanu każdej jednostki systemu. Decyzja o stanie jednostki podejmowana jest na podstawie wybranej reguły decyzyjnej. Działanie algorytmu probabilistycznego zostało opisane na prostym przykładzie, a następnie wyjaśnione dla przypadku bardziej złożonych systemów.
4
Content available remote Syntax-based distance for multilevel multidimensional decision rules
EN
One of the central problem in data mining is to filter large sets of discovered patterns. Our experience shows that this task should be done not for a single rule but by taking into considerations other similar rules. To fulfil this requirement the author proposes a new syntax-based distance measure dedicated for multilevel multidimensional rules as well as a rules’ neighbourhood with variable radius and a rule’s interestingness within the neighbourhood. Included example presents one of the possible usage of the proposed definitions in analysis of data from fault simulations.
PL
Badania pokazują, że wybór istotnych wzorców z dużych zbiorów reguł powinien być dokonywany nie na podstawie pojedynczej reguły, ale w powiązaniu z regułami podobnymi. Aby zrealizować to zadanie, autorka proponuje nową syntaktyczną miarę odległości miedzy wielopoziomowymi wielowymiarowymi regułami decyzyjnymi i definicje: sąsiedztwa reguły ze zmiennym promieniem oraz atrakcyjności reguły w sąsiedztwie. Artykuł zawiera tak˙ze przykład wykorzystania zaproponowanych definicji w analizie danych z symulatorów błędów.
EN
The similarity based decision rule computes the similarity between a new test document and the existing documents of the training set that belong to various categories. The new document is grouped to a particular category in which it has maximum number of similar documents. A document similarity based supervised decision rule for text categorization is proposed in this article. The similarity measure determine the similarity between two documents by finding their distances with all the documents of training set and it can explicitly identify two dissimilar documents. The decision rule assigns a test document to the best one among the competing categories, if the best category beats the next competing category by a previously fixed margin. Thus the proposed rule enhances the certainty of the decision. The salient feature of the decision rule is that, it never assigns a document arbitrarily to a category when the decision is not so certain. The performance of the proposed decision rule for text categorization is compared with some well known classification techniques e.g., k-nearest neighbor decision rule, support vector machine, naive bayes etc. using various TREC and Reuter corpora. The empirical results have shown that the proposed method performs significantly better than the other classifiers for text categorization.
PL
W artykule zaproponowano heurystykę na podstawie algorytmu dynamicznego programowania dla optymalizacji dokładnych reguł decyzyjnych odnośnie do pokrycia. Celem przeprowadzonych badań jest: (i) zbadanie pokrycia reguł konstruowanych za pomocą proponowanego algorytmu oraz porównanie z pokryciem reguł konstruowanych za pomocą algorytmu dynamicznego programowania, (ii) zbadanie rozmiaru grafu (liczba węzłów i krawędzi w skierowanym grafie acyklicznym) skonstruowanego za pomocą proponowanego algorytmu oraz porównanie go z rozmiarem grafu skonstruowanego za pomocą algorytmu dynamicznego programowania.
EN
In the paper, author proposes a heuristics based on dynamic programming algorithm for optimization of exact decision rules relative to coverage. There are two aims for the proposed algorithm: (i) study of coverage of rules and comparison with coverage of rules constructed by the dynamic programming algorithm, (ii) study of size of directed acyclic graph (the number of nodes and edges) and comparison with size of the graph constructed by the dynamic programming algorithm.
PL
Pierwsza część monografii poświęcona jest pokryciowym algorytmom indukcji reguł i obiektywnym miarom oceny jakości reguł decyzyjnych. Przedstawiono dwa algorytmy, które indukcję reguł prowadzą w kierunku maksymalizacji wartości miar przeznaczonych do oceny reguł decyzyjnych. Dokonano analizy własności miar definiowanych na podstawie tablicy kontyngencji i na tej podstawie określono minimalne zbiory własności, pożądane dla miar nadzorujących proces indukcji oraz oceniających zdolności opisowe reguł decyzyjnych. Przeprowadzono analizę równoważności i podobieństwa miar. Równoważność analizowano zarówno ze względu na uporządkowanie reguł, jak i na sposób rozstrzygania konfliktów klasyfikacji. W części eksperymentalnej zweryfikowano efektywności miar, zidentyfikowano zbiory miar najbardziej efektywnych oraz zaproponowano adaptacyjną metodę doboru miary w algorytmie indukcji reguł. Przeprowadzono także analizę własności teoretycznych najefektywniejszych miar. W pierwszej części pracy omówiono również miary niedefiniowane bezpośrednio na podstawie tablicy kontyngencji. Przedyskutowano możliwość złożonej oceny reguł, a także przedstawiono propozycję wielokryterialnej oceny reguł na podstawie tzw. funkcji użyteczności. Druga część monografii koncentruje się na wybranych metodach przycinania reguł. W części tej zaprezentowano dwa algorytmy agregacji reguł, algorytm redefinicji reguł na podstawie informacji o ważności tworzących je warunków elementarnych oraz cztery algorytmy filtracji reguł. Dzięki agregacji i redefinicji w przesłankach reguł mogą pojawić się złożone warunki elementarne, co w szczególnych przypadkach lepiej odzwierciedla zależności, jakimi charakteryzują się dane. Efektywność wszystkich algorytmów proponowanych w częściach pierwszej i drugiej zweryfikowano eksperymentalnie. Ostatnia część publikacji przedstawia przykłady nowych zastosowań algorytmów indukcji reguł decyzyjnych. Zaprezentowano trzy nowe obszary zastosowań: prognozowanie zagrożeń sejsmicznych, analizę danych okołoprzeszczepowych oraz funkcjonalny opis genów. W zastosowaniach tych wykorzystano rezultaty badań przedstawionych w częściach pierwszej i drugiej. W ostatniej części monografii przedstawiono także dwie, ukierunkowane dziedzinowo, modyfikacje algorytmów indukcji reguł. Pierwsza z nich umożliwia indukcję reguł sterowaną hipotezami definiowanymi przez użytkownika. Druga dostosowuje algorytm indukcji do hierarchicznej struktury analizowanych danych. Rezultatem badań nad funkcjonalnym opisem genów jest także metoda redukcji atrybutów, biorąca pod uwagę semantykę ich wartości.
EN
The first part of the book is devoted to seąuential covering rule induction algorithms and objective rule evaluation measures. Two algorithms that maximize values of rule evaluation measures are presented. The properties of measures defined on the basis of the contingency table were analyzed and minimal sets of the properties desired for measures controlling the process of rule induction and evaluating descriptive quality of decision rules were specified. The analysis of equivalence and similarity of measures was carried out. The equivalence was analyzed both due to the rule ordering and the classification conflicts resolving. In the experimental part the efficiency of measures was verified, sets of the most efficient measures were identified. The adaptive method of measure selection in sequential covering rule induction algorithm was proposed. Moreover, theoretical properties of most effective measures were analyzed. In the first part of the paper measures that are not defined directly from the contingency table were also discussed. Furthermore, the possibility of complex evaluation of rules was discussed and the proposal of multi-criteria rule assessment on the basis of so-called utility function was presented. The second part of the book focuses on algorithms of rule pruning. This part presents two algorithms of rule aggregation, the algorithm of rule redefinition based on information about the importance of the rule elementary conditions, and four algorithms of rule filtration. Through aggregation and redefinition complex elementary conditions may appear in rule premises which, in specific cases, better reflect dependencies in data. The effectiveness of all the algorithms proposed in the first and second parts was verified experimentally. The last part of the work shows examples of new applications of the decision rule induction algorithms. The following three new areas of application are presented: forecasting of seismic hazards, analysis of bone marrow transplantation data and functional description of genes. The results of study presented in the first two parts of the book were used there. Two domain-oriented modifications of rule induction algorithms are proposed. The first one allows for the rule induction controlled by hypothesis defined by the user. The second adjusts the induction algorithm to the hierarchical structure of the analyzed data. The method of attribute reduction that takes into consideration the semantics of the attributes values is also the result of research on the functional description of genes.
PL
Przedstawiono zagadnienie wyznaczania charakterystyk operacyjnych ROC detektorów binarnych. Omówiono podstawowe parametry tych detektorów. Przedstawiono zasady tworzenia krzywych ROC. Jako przykład wyznaczono charakterystyki operacyjne detektora Neymana-Pearsona, który wykrywa zdeterminowany sygnał na tle wąskopasmowego szumu białego.
EN
Receiver Operating Characteristics (ROC) of the binary detectors are presented in the paper. The parameters like False Alarm Probability and Detection Probability are described as well as a rule of creating ROC curves. As an example the operating characteristic of Neyman-Pearson detector of deterministic signal in narrow-band white noise was calculated.
9
Content available remote Ensembles of decision rules
EN
In most approaches to ensemble methods, base classifiers are decision trees or decision stumps. In this paper, we consider an algorithm that generates an ensemble of decision rules that are simple classifiers in the form of logical expression: if [conditions], then [decision]. Single decision rule indicates only one of the decision classes. If an object satisfies conditions of the rule, then it is assigned to that class. Otherwise the object remains unassigned. Decision rules were common in the early machine learning approaches. The most popular decision rule induction algorithms were based on sequential covering procedure. The algorithm presented here follows a different approach to decision rule generation. It treats a single rule as a subsidiary, base classifier in the ensemble. First experimental results have shown that the presented algorithm is competitive with other methods. Additionally, generated decision rules are easy in interpretation, which is not the case of other types of base classifiers.
10
Content available remote An algorithm for generalization of decision rules by joining
EN
An algorithm for rules generalization consisting in joining of rules with the same structure is presented in the paper. The algorithm joins rules conditionals descriptors so as the language of ruies representation is unchanged. A value of rules quality evaluation measure is a criterion deciding about advisability of rules joining. Some exemplary results of algorithm working is described in the paper as well. The tolerance rough sets model is used in ruies induction.
11
Content available remote A Note on 3-valued Rough Logic Accepting Decision Rules
EN
Rough sets carry, intuitively, a 3-valued logical structure related to the three regions into which any rough set x divides the universe., viz., the lower definable set i(x), the upper definable set c(x), and the boundary region c(x)\i(x) witnessing the vagueness of associated knowledge. In spite of this intuition, the currently known way of relating rough sets and 3-valued logics is only via 3-valued ukasiewicz algebras (Pagliani) that endow spaces of disjoint representations of rough sets with its structure. Here, we point to a 3-valued rough logic RL of unary predicates in which values of logical formulas are given as intensions over possible worlds that are definable sets in a model of rough set theory (RZF). This logic is closely related to the ukasiewicz 3-valued logic, i.e., its theorems are theorems of the ukasiewicz 3-valued logic and theorems of the ukasiewicz 3-valued logic are in one-to-one correspondence with acceptable formulas of rough logic. The formulas of rough logic have denotations and are evaluated in any universe U in which a structure of RZF has been established. RZF is introduced in this note as a variant of set theory in which elementship is defined via containment, i.e., it acquires a mereological character (for this, see the cited exposition of Lesniewski's ideas). As an application of rough logic RL, decision rules and dependencies in information systems are characterized as acceptable formulas of this logic whereas functional dependencies turn out to be theorems of rough logic RL.
EN
In this paper, infinite information systems used in pattern recognition, data mining, discrete optimization, and computational geometry are investigated. Time and space complexity of decision trees and complete decision rule systems are studied. A partition of the set of all infinite information systems into two classes is considered. Information systems from the first class are close to the best from the point of view of time and space complexity of decision trees and decision rule systems. Decision trees and decision rule systems for information systems from the second class have in the worst case large time or space complexity.
13
Content available remote Approximate decision logic and reduction of decision rules
EN
This paper generalises Pawlak's rough approach to Reduction of Decision Rules using Decision Logic language (DL-language) by introducing Approximate Decision Logic language (ADL-language) based on almost indiscernibility relation. An information system has been considered where attribute values are not always quantitative, rather subjective having vague or imprecise meanings. Some objects may have attribute values which are almost identical. This observation has been analysed here based on fuzzy proximity relations on different domains of attributes.
EN
We discuss a process of analysing medical diagnostic data by means of the combined rule induction and rough set approach. The first step of this analysis includes the use of various techniques for discretization of numerical attributes. Rough sets theory is applied to determine attribute importance for the patients' classification. The novel contribution concerns considering two different algorithms inducing either minimum or satisfactory set of decision rules. Verification of classification abilities of these rule sets is extended by an examination of sensitivity and specificity measures. Moreover, a comparative study of these composed approaches against other learning systems is discussed. The approach is illustrated on a medical problem concerning anterior cruciate ligament (ACL) rupture in a knee. The patients are described by attributes coming from anamnesis, MR examinations and verified by arthroscopy. The clinical impact of our research is indicating two attributes (PCL index, age) and their specific values that could support a physician in resigning from performing arthroscopy for some patients.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.