Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 40

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  zbiory przybliżone
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
The paper presents the problems associated with multicriteria evaluation of historic buildings. The capabilities of modeling the monuments in order to use the Rough Sets approach for their evaluation were presented. The problems of selection criteria for the evaluation and taking into account the structure of the object, as well as the problem of discretization and its impact on the generating of the rules were discussed.
PL
W artykule zaprezentowano problemy związane z wielokryterialną oceną budowli zabytkowych. Przedstawione zostały możliwości modelowania obiektu zabytkowego w celu wykorzystania podejścia Zbiorów Przybliżonych dla ich wartościowania. Omówiono problemy doboru kryteriów oceny oraz uwzględnienia struktury obiektu, jak również problem dyskretyzacji i jego wpływ na generowanie reguł.
PL
Artykuł przedstawia optymalizację częściowych reguł asocjacyjnych generowanych przez algorytm zachłanny względem liczby pomyłek (błędnych zaklasyfikowań). Zaproponowana optymalizacja ma na celu: (i) uzyskanie reguł o stosunkowo dobrej jakości, które w kolejnych etapach badań zostaną wykorzystane do budowy klasyfikatorów, (ii) zmniejszenie liczby konstruowanych reguł, co ma znaczenie z punktu widzenia reprezentacji wiedzy. Praca przedstawia wyniki eksperymentalne dla zbiorów danych umieszczonych w Repozytorium Uczenia Maszynowego.
EN
In the paper, an optimization of partial association rules relative to number of misclassifications is presented. The aims of proposed optimization are: (i) construction of rules with small number of misclassifications, what is important from the point of view of construction of classifiers, (ii) decreasing the number of rules, what is important from the point of view of knowledge representation. The paper contains experimental results for data sets from UCI Machine Learning Repository.
EN
Mathematical foundations are steadily extended and pushing rough set theory into incorporating new data analysis methods and data models. Generalized approximation spaces present abstract model useful in understanding unknown and undefined data structure leading into creation many new robust and intelligent approaches. Covering approximation spaces present data by means of coverings of the universe. In the paper, these two approaches have been put together introducing the concept of generalized covering approximation space. Further rough coverings model for generalized covering approximation spaces has been presented. Proposed rough covering models are based upon clustering and thresholding of feature space, are embedded in generalized approximation spaces, simultaneously spanning standard, fuzzy and probabilistic data models.
PL
Tematem pracy jest przedstawienie modelu grupowania w rozszerzenym pojęciu uogólnionych przestrzeni aproksymacyjnych, polegającym na zdefiniowaniu pokryć 9 w tych przestrzeniach. W ten sposób uogólniona przestrzeń aproksymacyjna, posiadająca z definicji sąsiedztwa oraz funkcję zawierania się zbiorów, posiada dodatkowo zdefiniowany system pokryć - czyli jest także przestrzenią pokryć. Praca wprowadza model grupowania w uogólnionych aproksymacyjnych przestrzeniach pokryć obejmujący pokrycia standardowe, rozmyte oraz probabilistyczne. W części prezentacyjnej przedstawione zostały przykłady wybranych uogólnionych aproksymacyjnych przestrzeni pokryć.
EN
Decisions regarding appropriate methods for the heat treatment of bronzes affect the final properties obtained in these materials. This study gives an example of the construction of a knowledge base with application of the rough set theory. Using relevant inference mechanisms, knowledge stored in the rule-based database allows the selection of appropriate heat treatment parameters to achieve the required properties of bronze. The paper presents the methodology and the results of exploratory research. It also discloses the methodology used in the creation of a knowledge base.
PL
Decyzje dotyczące odpowiedniej metody obróbki cieplnej brązów mają wpływ na uzyskanie końcowych własności tych materiałów. W pracy przedstawiono przykład budowy bazy wiedzy z zastosowaniem teorii zbiorów przybliżonych. Wiedza zgromadzona w bazie reguł umożliwia za pomocą mechanizmów wnioskowania dobór odpowiednich parametrów obróbki w celu uzyskania pożądanych własności brązu.
PL
W niniejszym artykule przedstawiono implementację sprzętową algorytmu stosowanego w obliczeniach związanych ze zbiorami przybliżonymi służącego do wyznaczania macierzy rozróżnialności. Istniejące dotychczas rozwiązania implementowały algorytm w językach programowania wysokiego poziomu. W wyniku prac badawczych stworzono i opisano w języku VHDL układ kombinacyjny realizujący równoważne obliczenia. Przeprowadzono badania porównawcze pod względem czasu potrzebnego do zakończenia obliczeń. Uzyskane wyniki pokazują ogromne przyspieszenie układu sprzętowego w porównaniu do implementacji programowej.
EN
In this paper the authors present an example of sequential software algorithm implementation as a hardware unit using VHDL in FPGA programmable logic structure. The converted algorithm is one of the principal operations in the rough sets theory – discernibility matrix calculation. Rough sets methods are used in data analysis, knowledge discovery and datasets attributes downsizing. At present there are no complete hardware implementations of rough sets methods. The existing solutions are only software implementations which need huge amount of time for processing big datasets. The authors created hardware implementation of such an algorithm as a pure combinational unit described in the VHDL language. Software implementation was also created to compare processing times between two solutions. The obtained results show that the usage of a hardware processing unit gives huge acceleration in terms of the time needed to finish creating a discernibility matrix. The FPGA structure utilization focused on LEs (Logical Elements) and pins usage was also examined. The first section of the paper is an introduction to rough sets and FPGA structures. In the second section there are presented the example of entry dataset and the calculated discernibility matrix. This section also includes description of the algorithm for creating a discernibility matrix as well as the proposed hardware solution. The third section presents the experimental results for the processing time and FPGA structure utilization. The last section focuses on conclusions and plans for future research.
6
Content available Identifying status of an ICT system using rough sets
EN
The article presents a method to identify operational state of an data communications (ICT) system. Supporting the management or operation of the simulation process. Method which was used is based on rough set theory.
EN
The article describes the problem of selection of heat treatment parameters to obtain the required mechanical properties in heat- treated bronzes. A methodology for the construction of a classification model based on rough set theory is presented. A model of this type allows the construction of inference rules also in the case when our knowledge of the existing phenomena is incomplete, and this is situation commonly encountered when new materials enter the market. In the case of new test materials, such as the grade of bronze described in this article, we still lack full knowledge and the choice of heat treatment parameters is based on a fragmentary knowledge resulting from experimental studies. The measurement results can be useful in building of a model, this model, however, cannot be deterministic, but can only approximate the stochastic nature of phenomena. The use of rough set theory allows for efficient inference also in areas that are not yet fully explored.
PL
Proces generalizacji informacji geograficznej zawsze opierał się na wiedzy i doświadczeniu kartografa, który go wykonywał. Postępujące zmiany technologiczne, w szczególności zaś zmiana sposobu przechowywania informacji przestrzennej, polegające na zastąpieniu formy analogowej elektroniczną (zwykle opartą o bazy danych), sprawiają, że owa wiedza niezbędna w generalizacji, jakkolwiek wciąż kluczowa, jest również przechowywana w inny sposób. Dziś na podstawie wieloletniego doświadczenia kartografa budowane są bazy wiedzy, które mają umożliwić, przynajmniej częściową automatyzację procesu generalizacji. Taką bazę wiedzy dla współczesnych danych przestrzennych może stanowić np. informacja o atrybutach obiektów istotnych z punktu widzenia procesu generalizacji i reguły generalizacyjne o te atrybuty oparte. Dzisiejsze bazy danych przestrzennych posiadają szereg atrybutów a kolejne mogą zostać obliczone w oparciu o geometrię obiektów, czy ich topologię. Trudność polega jednak na wyłonieniu informacji kluczowych w procesie generalizacji informacji geograficznej. W artykule zaprezentowano wykorzystanie konceptu zbiorów rozmytych oraz reduktów. Redukt jest podzbiorem oryginalnego zbioru atrybutów, który pozwala na równie dobre podjęcie decyzji (w tym przypadku dotyczącej generalizacji), co oryginalny zbiór atrybutów. Jego wyznaczenie pozwala więc na wybranie spośród dostępnych atrybutów tych o najistotniejszym znaczeniu. Wiedza o tym, które atrybuty są kluczowe dla poszczególnych operatorów generalizacji jest więc w ten sposób wydobywana z już istniejących danych. Wyselekcjonowane atrybuty mogą zaś zostać wykorzystane do tworzenia reguł procesu generalizacji. Dzięki wykorzystaniu jedynie atrybutów tworzących redukt budowa reguł, staje się łatwiejsza a same reguły, a co za tym idzie cały proces generalizacji, bardziej przejrzysty.
EN
Generalization of geographic information was always based on the knowledge and experience of cartographer who performed it. Progressive technological changes, especially the change in data storage from analog to electronic devices (usually in the form of databases), changed a lot in generalization process. Though, the knowledge needed for it is still crucial, it is stored in different way as well. Today, knowledge bases are built based on years of cartographer’s experience. Their goal is to enable, at least partially, automation of the generalization process. This knowledge base for modern spatial data may be constituted, among others, by information about attributes of objects which are significant from the point of view of generalization process as well as the generalization rules based on those attributes. Contemporary spatial databases include a number of attributes and other information (as geometry and topology) which can be used to calculate other databases. Therefore, the challenge is to bring to light information crucial in generalization process. This paper presents the use of rough sets concept, specifically reducts, for this goal. The reduct is a subset of the original set of attributes which allows to make decisions (in this case, the decision about generalization of objects) as good as based on original attributes. Knowledge about the attributes significant in generalization process is derived, in this way, from already existing data. Selected attributes can be used for defining the generalization rules. Thanks to the use only of the attributes constituting reducts, the construction of rules becomes easier and the rules themselves, as well as generalization process, are more transparent.
9
Content available remote Research of the fault location method of distribution network
EN
The rough set theory is used to realize the automatic fault location method of the rural power distribution network. The decision table of the distribution network fault location is based on the fault complaints information. It is automatically formed by distribution network topology. Then the decision table is property reduced based on identifiable matrix. Finally improved value reduction method is used to form the fault diagnosis expert knowledge uniformly. Combined with the GIS platform, it designs the application program of the fault location and realizes the visual fault localization.
PL
W artykule zaproponowano wykorzystanie teorii zbiorów przybliżonych w tworzeniu metody lokalizacji awarii w sieci elektroenergetycznej na terenie wiejskim. Metoda bazuje na drzewie decyzyjnym, w którym zawiera informacja o zgłoszeniach awarii. Opracowany algorytm redukcji wielkości drzewa, w połączeniu z platformą Systemu Informacji Geograficznej (ang. Geographic Information System – GIS), pozwala na dokładne określenie miejsca awarii.
10
Content available Discovering knowledge with the rough set approach
EN
The rough set theory, which originated in the early 1980s, provides an alternative approach to the fuzzy set theory, when dealing with uncertainty, vagueness or inconsistence often encountered in real-world situations. The fundamental premise of the rough set theory is that every object of the universe is associated with some information, which is frequently imprecise and insufficient to distinguish among objects. In the rough set theory, this information about objects is represented by an information system (decision table). From an information system many useful facts and decision rules can be extracted, which is referred as knowledge discovery, and it is successfully applied in many fields including data mining, artificial intelligence learning or financial investment. The aim of the article is to show how hidden knowledge in the real-world data can be discovered within the rough set theory framework. After a brief preview of the rough set theory’s basic concepts, knowledge discovery is demonstrated on an example of baby car seats evaluation. For a decision rule extraction, the procedure of Ziarko and Shan is used.
PL
Teoria zbiorów przybliżonych, która powstała w roku 1980, oferuje alternatywne podejście do teorii zbiorów rozmytych, gdy ma się do czynienia ze zjawiskiem niepewności, niejasności i niekonsekwencji, często spotykanym w rzeczywistych sytuacjach. Podstawowym założeniem teorii zbiorów przybliżonych jest to, że każdy obiekt wszechświata jest związany z pewnymi informacjami, które są często nieprecyzyjne i niewystarczające do rozróżnienia między obiektami. W teorii zbiorów przybliżonych, informacje o obiektach są reprezentowane przez system informacyjny (tabela decyzyjna). System informacyjny dostarcza wiele przydatnych faktów i reguł, które są określane jako odkrywanie wiedzy, która z powodzeniem jest stosowana w wielu dziedzinach, w tym w ekstrakcji danych, sztucznej inteligencji czy przy inwestycjach finansowych. Cele artykułu jest pokazanie, w jaki sposób wiedza ukryta w rzeczywistych danych, mogą zostać odkryte w trudnych ramach teorii mnogości. Po krótkim przedstawieniu podstawowych pojęć teorii zbiorów przybliżonych, na przykładzie ocen fotelików samochodowych, przedstawiono zjawisko odkrywania wiedzy. W celu wydobycia reguły decyzyjnej zastosowano procedurę Ziarko i Shan.
EN
In this paper a method is proposed which enables identification of cellular automata (CA) that extract low-level features in medical images. The CA identification problem includes determination of neighbourhood and transition rule on the basis of training images. The proposed solution uses data mining techniques based on rough sets theory. Neighbourhood is detected by reducts calculations and rule-learning algorithms are applied to induce transition rules for CA. Experiments were performed to explore the possibility of CA identification for boundary detection, convex hull transformation and skeletonization of binary images. The experimental results show that the proposed approach allows finding CA rules that are useful for extraction of specific features in microscopic images of blood specimens.
PL
W artykule przedstawiono problem generowania skróconych reguł niedeterministycznych w systemach decyzyjnych. Tego typu reguły wykorzystano do budowy klasyfikatorów regułowych. W pracy położono szczególny nacisk na sposób tworzenia skróconych reguł niedeterministycznych. Przedstawiono porównanie zaproponowanych metod tworzenia reguł niedeterministycznych pod względem jakości uzyskanych klasyfikatorów.
EN
The short non-deterministic rules were described in the paper. This type of rules is used to build up rule-based classifiers. Special emphasis is put on the way of extraction this kind of rules. The proposed methods of such rules generation were compeered in terms of the classifiers quality.
PL
Artykuł zawiera zagadnienia dotyczące procesu podejmowania decyzji globalnych na podstawie wiedzy zgromadzonej w kilku lokalnych bazach wiedzy. Lokalne bazy wiedzy zawierają informacje dotyczące tej samej dziedziny, ale określone są na różnych zbiorach atrybutów warunkowych, które nie muszą być rozłączne. Artykuł zawiera opis wieloagentowego systemu decyzyjnego o strukturze hierarchicznej oraz propozycję metody eliminacji niespójności wiedzy, działającej na podstawie reguł decyzyjnych, wygenerowanych z użyciem lokalnych baz wiedzy. Głównym celem artykułu jest porównanie efektywności wnioskowania, uzyskanej przy zastosowaniu metody eliminacji niespójności wiedzy, działającej na podstawie reguł decyzyjnych z efektywnością wnioskowania, otrzymaną przy zastosowaniu znanych z literatury metod eliminacji niespójności wiedzy.
EN
The paper includes issues related to process of global decision-making on the basis of knowledge which is stored in several local knowledge bases. The local knowledge bases, that are used, contain information on the same subject, but are defined on different sets of conditional attributes that are not necessarily disjoint. The paper contains a description of a multi-agent decision-making system with a hierarchical structure. In the paper a method of elimination inconsistencies in the knowledge operating on the basis of decision rules generated based on local knowledge bases was proposed. The main aim of this paper is to compare the efficiency of inference obtained using the method of elimination inconsistencies in the knowledge operating on the basis of decision rules, with the efficiency of inference obtained using the methods of elimination inconsistencies in the knowledge, which are known from the literature.
PL
W artykule przedstawiono metodę adaptacyjnego uczenia maszynowego do rozpoznawania i przetwarzania obrazów w procesach automatycznego opracowywania przesyłek pocztowych. Ze względu na proces automatycznego rozpoznawania adresu, najistotniejszym segmentem linii do automatycznego opracowywania przesyłek pocztowych jest zintegrowana maszyna czytająca z wideokodowaniem. W maszynie czytającej za pomocą modułu optycznego następuje rozpoznawanie znaków, gdzie w sposób automatyczny dokonuje się odczyt adresu przesyłki. Mała sprawność tego modułu podnosi koszty i zmniejsza przepustowość całego systemu opracowania przesyłek. Zaproponowano metodę bazującą na wydzielaniu cech znaków na podstawie analizy z wykorzystaniem zbiorów przybliżonych. Dla każdej z klas rozpoznawanych obiektów tworzone są reguły decyzyjne oraz rozkłady poszczególnych parametrów, które tworzą wzorcową bazę danych. Natomiast dane z procesu wideokodowania pozwalają na aktualizację bazy wzorców poszczególnych klas znaków.
EN
In this article we presented the method of adaptive learning for image processing and recognition for the postal applications. Due to the automatic postal address recognition, the most important element of the automatic sorting and processing post mails is integrated optical character recognition module with videocoding system. This solution can read the addresses data using optical character recognition module. Low efficiency of this module raises costs and reduces the throughput of the mail sorting system. The proposed method based on the character features derived from the rough sets analysis. For each classes of recognized objects (characters) are created the decision rules and distributions of the parameters that form the database. Whereas data from the videocoding process allow to update the database patterns of particular classes of characters.
15
Content available Rough set methods and hardware implementations
EN
This paper describes current achievements about hardware realisation of rough sets algorithms in FPGA (Field Programmable Gate Array) logic devices. At the moment only few ideas and hardware implementations have been created. Most of the existing rough set methods implementations are software type. Software solution provides flexibility in terms of data processing and executed algorithms, but is relatively slow. Hardware implementation limits this versatility, but gives a significant increase in calculation speed. The paper also includes brief description of current authors research on the creation of this type of implementation. The testing environment uses FPGA from Altera called Cyclone II. This is a high-capacity device providing the ability to create soft-processor core, along with modules allowing to support peripherals of the development board.
PL
Zbiory przybliżone (ang. rough sets) zostały wprowadzone przez Prof. Zdzisława Pawlaka jako narzędzie wnioskowania o poj˛eciach nieostrych (ang. vague concepts). Zarówno podstawy teoretyczne jak i zastosowania zbiorów przybliżonych zostały istotnie rozwinieęte. Metody bazujące na zbiorach przybliżonych cieszą się bardzo dużym zainteresowaniem wielu środowisk na świecie. Praca opisuje bieżące dokonania na polu implementacji sprzętowych w strukturach programowalnych FPGA (ang. Field Programmable Gate Array) metod zbiorów przybliżonych. Do tej pory stworzonych zostało zaledwie kilka takich rozwiązań. Większość istniejących implementacji metod zbiorów przybliżonych jest realizowanych programowo. Rozwiązanie programowe zapewnia uniwersalność działania pod względem przetwarzanych danych oraz wykonywanych algorytmów zapewniając jednocześnie prostotę ich modyfikacji, jednak jest relatywnie powolne. Implementacja sprzętowa ogranicza tą uniwersalność, dając jednak w zamian znaczny przyrost szybkości działania. W pracy zawarto również krótki opis bieżących badań prowadzonych przez autorów nad stworzeniem tego typu implementacji. Do badań wykorzystywany jest układ FPGA firmy Altera o nazwie Cyclone II. Jest to układ o dużej pojemności zapewniający możiwość tworzenia procesorów typu soft-core wraz z modułami pozwalającymi na obsługę peryferiów płyty rozwojowej.
EN
Searching for optimal parameters of a classifier based on simple granules of knowledge investigated recently by the author (ARTIEMJEW 2010) raises a question about stability of optimal parameters. In this article, we will check dependence of stability of the optimal radius of granulation on random damage of decision system. The results of experiments show the dependence of stability on size of damage and strategies of treating missing values. This kind of research aims at finding methods of protecting decision systems which are vulnerable to damage against decreasing their classification effectiveness, which means preserving classifying possibilities similar to undamaged decision systems.
PL
Przeprowadzone w ostatnim czasie badania (ARTIEMJEW 2010) zmierzające do wyszukiwania optymalnych parametrów klasyfikacji modułów decyzyjnych opartych na prostych granulach wiedzy zrodziły pytanie o stabilność optymalnych parametrów klasyfikacji. W pracy sprawdzono zależność stabilności optymalnych promieni granulacji od losowego uszkadzania systemu decyzyjnego. Wyniki badań wskazały jednoznacznie, że istnieje zależność między stabilnością a wielkością uszkodzenia i strategiami traktowania wartości uszkodzonych. Tego typu badania mają na celu szukanie metod zabezpieczania systemów decyzyjnych, które są podatne na uszkodzenia, przed zmniejszaniem ich efektywności klasyfikacyjnej. Celem było zachowanie możliwości klasyfikacyjnych zbliżonych do efektywności nieuszkodzonych systemów decyzyjnych.
PL
Artykuł omawia zagadnienia dotyczące zastosowania systemu analizy danych w zabezpieczaniu i konserwacji zabytków architektury. Z uwagi na bardzo dużą liczbę obiektów zabytkowych o silnie zróżnicowanym stanie zachowania, wykonanych z materiałów o różnej podatności na degradację, istotne jest opracowanie systemu wspierającego prace konserwatorskie. W prezentowanym artykule omówiono wykorzystanie teorii zbiorów przybliżonych do analizy danych na temat czynników środowiskowych, mających wpływ na obiekty zabytkowe. Zaprezentowano elementy systemu realizującego taką analizę oraz wyniki przeprowadzonych eksperymentów.
EN
The article discusses issues concerning the application of data analysis system in the preservation and conservation of architectural monuments. Due to the extremely large number of historic buildings with highly differentiated state of preservation, made of materials with different susceptibility to degradation, it is important to develop a system to support the work of restoration. In the presented paper it has been discussed the use of rough sets theory to the analysis of data on environmental factors affecting historic buildings. The elements of the system performing this analysis and the results of experiments have been presented.
EN
In the paper, we discuss nondeterministic rules in decision tables, called the second type nondeterministic rules. They have a few decisions values on the right hand side but on the left hand side only one attribute that has two values. We show that these kinds of rules can be used for improving the quality of classification. It is important in rule-based diagnosis support systems, where classification error can lead to serious consequences. The well known greedy strategy to construct the new nondeterministic rules, have been proposed. Additionally, based on deterministic and nondeterministic (second type) rules, classification algorithm with polynomial computational complexity has been developed. This rule-based classifier was tested on the group of decision tables, containing medical data, from the UCI Machine Learning Repository. The reported results of experiments showing that by combining rule-based classifier based on deterministic rules with second type nondeterministic rules give us possibility to improve the classification quality.
19
Content available remote Dynamic classification: a novel approach to selection of complex objects
EN
The problem of selecting the best objects may be solved with the help of classification tools. There are many software tools helpful in data exploration, and in the classification, but all of them have some restrictions. Selection algorithms used in these tools are of no use for data burdened with errors and noise, or if the information should be dynamically processed during the experiment. The problem is analyzed using selection of candidates for mobile robot (mobot) operators as an example. The paper includes comparison of basic classification methods (classification trees, rough sets and fuzzy sets), too. Moreover, a new software tool, effective in candidate selection, is presented. The tool is especially useful for candidates for difficult tasks and jobs requiring special predispositions. Presented classifier works with data burdened with noise, and also if the data is gathering dynamically, after the classification has started. In may be used practically, ensuring high reliability.
PL
Problem selekcji najlepszych obiektów może być rozwiązany z pomocą narzędzi wspomagających klasyfikację. Istnieje wiele narzędzi programowych przeznaczonych do eksploracji danych, w tym do klasyfikacji, ale każde z nich posiada pewne ograniczenia. Stosowane w nich metody selekcji nie sprawdzają się dla danych obciążonych błędami lub szumem, dla których istotna informacja powinna być dynamicznie pozyskiwana w trakcie trwania eksperymentu. Problem jest analizowany na przykładzie selekcji kandydatów na operatorów mobilnego robota (mobota). Praca zawiera porównanie podstawowych metod klasyfikacji (drzew klasyfikacyjnych, zbiorów przybliżonych oraz zbiorów rozmytych). Ponadto przedstawione jest nowe narzędzie programowe, skuteczne w selekcji kandydatów do wykonania trudnych zadań lub zawodów wymagających specyficznych predyspozycji. Prezentowany klasyfikator jest użyteczny zarówno w wypadku danych obciążonych szumami, jak i danych napływających dynamicznie, po rozpoczęciu procesu selekcji. Może być on wykorzystany w praktyce zapewniając dużą wiarygodność wyników.
PL
Artykuł dotyczy zastosowania teorii zbiorów przybliżonych w klasyfikacji stron internetowych. W pracy zaproponowano podejście integrujące elementy teorii zbiorów przybliżonych z bazami danych, którego celem jest zwiększenie wydajności oraz przetwarzanie danych bezpośrednio w miejscu ich przechowywania. Artykuł dotyczy implementacji w środowisku bazodanowym algorytmów selekcji atrybutów nieusuwalnych i reduktów względnych oraz wyznaczania reguł decyzyjnych. Celem jest klasyfikacja stron internetowych w oparciu o reguły decyzyjne oraz zbiór cech opisujących poszczególne dokumenty.
EN
This paper concerns applying of rough sets theory to web pages classification. In this work the approach integrating elements of rough sets theory with databases was proposed, which the aim is improving of the efficiency as well as processing of data in the place of them store. The paper describes implementations of algorithms of core attributes and reducts selection as well as decision rules determining. The aim is web pages classifications on the basis of decision rules and the set of features describing individual web pages.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.