Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  FCA
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The theory of Formal Concept Analysis (FCA) provides efficient methods for conceptualization of formal contexts. The methods of FCA are applied mainly on the field of knowledge engineering and data mining. The key element in FCA applications is the generation of a concept set. The main goal of this research work is to develop an efficient incremental method for the construction of concept sets. The incremental construction method is used for problems where context may change dynamically. The paper first proposes a novel incremental concept set construction algorithm called ALINC, where the insertion loop runs over the attribute set. The combination of object-level context processing and ALINC is an object level incremental algorithm (OALINC) where the context is built up object by object. Based on the performed tests, OALINC dominates the other popular batch or incremental methods for sparse contexts. For dense contexts, the OINCLOSE method, which uses the InClose algorithm for processing of reduced contexts, provides a superior efficiency. Regarding the OALINC/OINCLOSE algorithms, our test results with uniform distribution and real data sets show that our method provides very good performance in the full investigated parameter range. Especially good results are experienced for symmetric contexts in the case of word clustering using context-based similarity.
EN
The paper deals with a modeling of manufacturing process of thin wire of MgCa08 alloy used as biocompatible soluble threads for medical application. Some difficulties in material deformation subjected with its hexagonal structure can be solved with accurate establishment of the deformation conditions, especially temperature history of the whole process. In drawing process with heated die, wire is preheated in furnace and then deformed. The only narrow temperature range allows for multi-pass drawing without wire breaking. Diameter below 0.1 mm required for the final product makes very important the consideration of microstructure evolution because grain size is comparable with the wire dimensions. For this reason the problem is considered in the micro scale by using the frontal cellular automata (FCA)-based model. The goals of present work are the development and validation of FCA-base model of microstructure evolution of MgCa0.8 magnesium alloy. To reach this objective, plastometric and relaxation tests of MgCA08 alloy were done on physical simulator GLEEBLE 3800. Results of the experimental studies were used for parameters identification of the hardening-softening model of the material. Then, initial microstructure and its evolution during the drawing passes were simulated with FCA-based model. FCA consider dislocation density and flow stress, hardening and softening including recovery and recrystallization, grain refinement and grain rotation, as well as grain growth. It allows one to obtain structures close to real ones. Two variants of the drawing process with different temperature history were considered. The deformation scheme was the same. Simulation results with following short discussion confirm usefulness of FCA-based model for explanation and selection of rational technological condition of thin wire drawing of MgCa08 alloy.
PL
W pracy rozpatrzono proces wytwarzania cienkich drutów z biozgodnego stopu MgCa0.8 z przeznaczeniem na resorbowalne nici chirurgiczne. W procesie ciągnienia drut nagrzewany jest w piecu a następnie odkształcany. Jednym z warunków, jaki musi być spełniony w technologicznym procesie jest zachodzenie rekrystalizacji w trakcie ciągnienia. Pozwala to na realizację wielo przepustowego procesu ciągnienia bez wyżarzania międzyoperacyjnego. Prognozowanie rekrystalizacji na etapie projektowania technologii wymaga stworzenia modelu rekrystalizacji. W przypadku ciągnienia drutów o średnicach mniejszych niż 0.1 mm konieczne jest zastosowania modelu w skali mikro. Celem pracy jest opracowanie modelu rekrystalizacji, opartego o frontalne automaty komórkowe (FCA) oraz przykładowa symulacja kilku przepustów ciągnienia. Do kalibracji modelu FCA wykorzystano badania plastometryczne oraz testy relaksacji stopu MgCa08 przy użyciu symulatora fizycznego GLEEBLE 3800. Wyniki tych badań pozwoliły wyznaczyć parametry modelu umocnienia-mięknięcia materiału. Następnie początkowa mikrostruktura i jej rozwój podczas procesu ciągnienia były analizowane za pomocą modelu opartego o FCA, który uwzględnia gęstość dyslokacji, naprężenie uplastyczniające, umocnienie i mięknięcie w tym zdrowienie i rekrystalizację, rozdrobnienie ziaren oraz ich rotację i rozrost, co pozwala na uzyskanie struktury bliskiej do rzeczywistej. Dwa warianty procesu ciągnienia o różnej historii zmiany temperatury rozpatrzono w pracy. Wyniki symulacji potwierdziły przydatność modelu opartego o FCA do uzasadnienia i wyboru racjonalnych warunków technologicznych ciągnienia cienkich drutów za stopu MgCa08. W pracy przedstawiono również praktyczną implementację procesu ciągnienia.
PL
Cel: Zaprezentowanie rozwiązania problemu segmentacji tekstu dziedzinowego. Badany tekst pochodził z raportów (formularza „Informacji ze zdarzenia”, pola „Dane opisowe do informacji ze zdarzenia”) sporządzanych po akcjach ratowniczo-gaśniczych przez jednostki Państwowej Straży Pożarnej. Metody: W celu realizacji zadania autor zaproponował metodę projektowania bazy wiedzy oraz reguł segmentatora regułowego. Zaproponowana w artykule metoda opiera się na formalnej analizie pojęć. Zaprojektowana według proponowanej metody baza wiedzy oraz reguł umożliwiła przeprowadzenie procesu segmentacji dostępnej dokumentacji. Poprawność i skuteczność proponowanej metody zweryfikowano poprzez porównanie jej wyników z dwoma innymi rozwiązaniami wykorzystywanymi do segmentacji tekstu. Wyniki: W ramach badań i analiz opisano oraz pogrupowano reguły i skróty występujące w badanych raportach. Dzięki zastosowaniu formalnej analizy pojęć utworzono hierarchię wykrytych reguł oraz skrótów. Wydobyta hierarchia stanowiła zarazem bazę wiedzy oraz reguł segmentatora regułowego. Przeprowadzone eksperymenty numeryczne i porównawcze autorskiego rozwiązania z dwoma innymi rozwiązaniami wykazały znacznie lepsze działanie tego pierwszego. Przykładowo otrzymane wyniki F-miary otrzymane w wyniku zastosowania proponowanej metody wynoszą 95,5% i są lepsze o 7-8% od pozostałych dwóch rozwiązań. Wnioski: Zaproponowana metoda projektowania bazy wiedzy oraz reguł segmentatora regułowego umożliwia projektowanie i implementację oprogramowania do segmentacji tekstu z małym błędem podziału tekstu na segmenty. Podstawowa reguła dotycząca wykrywania końca zdania poprzez interpretację kropki i dodatkowych znaków jako końca segmentu w rzeczywistości, zwłaszcza dla tekstów specjalistycznych, musi być opakowana dodatkowymi regułami. Działania te znacznie podnoszą jakość segmentacji i zmniejszają jej błąd. Do budowy i reprezentacji takich reguł nadaje się przedstawiona w artykule formalna analiza pojęć. Wiedza inżyniera oraz dodatkowe eksperymenty mogą wzbogacać utworzoną sieć o nowe reguły. Nowo wprowadzana wiedza może zostać w łatwy sposób naniesiona na aktualnie utworzoną sieć semantyczną, tym samym przyczyniając się do polepszenia segmentacji tekstu. Ponadto w ramach eksperymentu numerycznego wytworzono unikalny: zbiór reguł oraz skrótów stosowanych w raportach, jak również zbiór prawidłowo wydzielonych i oznakowanych segmentów.
EN
Objective: Presentation of a specialist text segmentation technique. The text was derived from reports (a form “Information about the event”, field “Information about the event - descriptive data”) prepared by rescue units of the State Fire Service after firefighting and rescue operations. Methods: In order to perform the task the author has proposed a method of designing the knowledge base and rules for a text segmentation tool. The proposed method is based on formal concept analysis (FCA). The knowledge base and rules designed by the proposed method allow performing the segmentation process of the available documentation. The correctness and effectiveness of the proposed method was verified by comparing its results with the other two solutions used for text segmentation. Results: During the research and analysis rules and abbreviations that were present in the studied specialist texts were grouped and described. Thanks to the formal concepts analysis a hierarchy of detected rules and abbreviations was created. The extracted hierarchy constituted both a knowledge and rules base of tools for segmentation of the text. Numerical and comparative experiments on the author's solution with two other methods showed significantly better performance of the former. For example, the F-measure results obtained from the proposed method are 95.5% and are 7-8% better than the other two solutions. Conclusions: The proposed method of design knowledge and rules base text segmentation tool enables the design and implementation of software with a small error divide the text into segments. The basic rule to detect the end of a sentence by the interpretation of the dots and additional characters as the end of the segment, in fact, especially in case of specialist texts, must be packaged with additional rules. These actions will significantly improve the quality of segmentation and reduce the error. For the construction and representation of such rules is suitable presented in the article, the formal concepts analysis. Knowledge engineering and additional experiments can enrich the created hierarchy by the new rules. The newly inserted knowledge can be easily applied to the currently established hierarchy thereby contributing to improving the segmentation of the text. Moreover, within the numerical experiment is made unique: a set of rules and abbreviations used in reports and set properly separated and labeled segments.
PL
W artykule opisano proces projektowania systemu ekstrakcji informacji SEI. Projektowanie tego systemu bazuje na regułach oraz zastosowaniu formalnej analizy pojęć do ich odpowiedniego ułożenia w bazie wiedzy opisywanego systemu.
EN
This article describes a design process of information extraction system IES. The proposed projecting method is based on rules and formal concept analysis.
5
Content available remote Relational Contexts and Relational Concepts
EN
Formal concept analysis (FCA) is a mathematical description and theory of concepts implied in formal contexts. And the current formal contexts of FCA aim to model the binary relations between individuals (objects) and attributes in the real world. In the real world we usually describe each individual by some attributes, which induces the relations between individuals and attributes. But there also exist many relations between individuals, for instance, the parent-children relation in a family. In this paper, to model the relations between individuals in the real world, we propose a new context - relational context for FCA, which contains a set U of objects and a binary relation r on U. Corresponding to the formal concepts in formal contexts, we present different kinds of relational concepts in relational contexts, which are the pairs of sets of objects. First we define the standard relational concepts in relational contexts. Moreover, we discuss the indirect relational concepts and negative relational concepts in relational contexts, which aim to concern the indirection and negativity of the relations in relational contexts, respectively. Finally, we define the hybrid relational concepts in relational contexts, which are the combinations of any two different kinds of relational concepts. In addition, we also discuss the application of relational contexts and relational concepts in the supply chain management field.
EN
Formal concept analysis and probability logic are two useful tools for data analysis. Data is usually represented as a two-dimensional context of objects and features. FCA discovers dependencies within the data based on the relation among objects and features. On the other hand, the probability logic represents and reasons with both statistical and propositional probability among data. We propose SPICE - Symbolic integration of Probability Inference and Concept Extraction, which provides a more flexible and robust framework for data mining tasks. Within SPICE, we formalize the important notions of data mining, such as concepts and patterns, and develop new notions such as maximal potentially useful patterns. In this paper, we formalize the association rule mining in SPICE and propose an enhanced rule mining approach, called SPICE association rule mining, to solve the problem of time inefficiency and rule redundancy in general association rule mining. We show an application of the SPICE approach in the Geo-spatial Decision Support System (GDSS). The experimental results show that SPICE can efficiently and effectively discover a succinct set of interesting association rules.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.