Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 140

Liczba wyników na stronie
first rewind previous Strona / 7 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  UML
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 7 next fast forward last
EN
Exchange of and access to spatial data is the principal goal of any Spatial Data Infrastructure, therefore, one of the key concepts of SDI is interoperability, especially semantic and syntactic. Whereas application schemas and quality issues are one of the aspects that have to be considered to ensure a successful data interchange in SDI. Two types of application schema are widely used in the European SDI as well as in the Polish SDI. They cover both semantic and syntactic interoperability and are an integral parts of spatial data specifications and relevant regulations in the form of data models. However, working out accurate and correct application schemas may be a challenge. Additionally, faulty or too complex application schemas can influence the ability for valid data interchange, and consequently, prevent achieving interoperability within SDI. Therefore, the capability to examine and estimate the UML and GML application schemas quality seems to be a worthwhile and important issue in the context of semantic and syntactic interoperability in SDI. The main subject of this article it to set out the context of performed studies, among others, the role of application schema in the interoperable data exchange, issues related to the concept of quality and its measures.
EN
Interoperability is one of the core concepts of Spatial Data Infrastructure due to the fact that exchange and access to spatial data is the foremost aim of any SDI. These issues are closely related to the concept of application schema that plays a significant role in interchanging spatial data and information across SDI. It is the basis of a successful data interchange between two systems as it defines the possible content and structure of data, thus it covers both semantic and syntactic interoperability. These matters also appear in a couple of questions concerning SDI including, among others, a model driven approach and data specifications. Spatial data exchange through SDI involves UML and GML application schemas that comprise semantic and syntactic interoperability respectively. How ever, working out accurate and correct application schemas may be a challenge. Moreover, their faultiness or complexity may influence the ability to valid data interchange. The principal subject of this paper is to present the concept of interoperability in SDI, especially semantic and syntactic, as well as to discuss the role of UML and GML application schemas during the interoperable exchange of spatial data over SDI. Considerations were conducted focusing on the European SDI and the National SDI in Poland.
PL
Interoperacyjność jest jedną z podstawowych koncepcji infrastruktury danych przestrzennych (SDI), ponieważ wymiana i dostęp do danych przestrzennych są głównymi jej celami. Zagadnienie to jest ściśle związane z pojęciem schematu aplikacyjnego, który z kolei odgrywa kluczową rolę podczas interoperacyjnej wymiany danych i informacji przestrzennych w SDI. Stanowi on podstawę pomyślnej wymiany danych między dwoma systemami, ponieważ definiuje możliwą zawartość i strukturę danych, a więc obejmuje zarówno interoperacyjność semantyczną, jak i składniową. Problematyka ta pojawia się również w kilku innych kwestiach związanych z SDI, takich jak na przykład podejście oparte na modelu czy specyfikacje danych przestrzennych. Proces wymiany danych przestrzennych w SDI wymaga przygotowania schematów aplikacyjnych UML i GML, które obejmują interoperacyjność semantyczną i składniową. Opracowanie odpowiednich i poprawnych schematów aplikacyjnych może jednak nie być proste. Ponadto błędne lub zbyt złożone struktury danych mogą mieć negatywny wpływ na przebieg procesu wymiany danych. Głównym przedmiotem artykułu jest przedstawienie koncepcji interoperacyjności w SDI, w szczególności interoperacyjności semantycznej i składniowej, jak również omówienie roli schematów aplikacyjnych UML i GML podczas wymiany danych przestrzennych w SDI. Rozważania przeprowadzono na przykładzie europejskiej i krajowej infrastruktury danych przestrzennych w Polsce.
EN
Background: The comprehensive representation of functional requirements is a crucial activity in the analysis phase of the software development life cycle. Representation of a complete set of functional requirements helps in tracing business goals effectively throughout the development life cycle. Use case modelling is one of the most widely-used methods to represent and document functional requirements of the system. Practitioners exploit use case modelling to represent interactive functional requirements of the system while overlooking some of the non-interactive functional requirements. The non-interactive functional requirements are the ones which are performed by the system without an initiation by the user, for instance, notifying something to the user or creating an internal backup. Aim: This paper addresses the representation of non-interactive requirements along with interactive ones (use cases) in one model. This paper calls such requirements 'operation cases' and proposes a new set of graphical and textual notations to represent them. Method: The proposed notations have been applied on a case study and have also been empirically evaluated to demonstrate the effectiveness of the new notations in capturing non-interactive functional requirements. Results and Conclusion: The results of the evaluation indicate that the representation of operation cases helps in documenting a complete set of functional requirements, which ultimately results in a comprehensive translation of requirements into design.
EN
A conceptual model is a high-level, graphical representation of a specic domain, presenting its key concepts and relationships between them. In particular, these dependencies can be inferred from concepts' instances being a part of big raw data files. The paper aims to propose a method for constructing a conceptual model from data frames encompassed in data files. The result is presented in the form of a class diagram. The method is explained with several examples and verified by a case study in which the real data sets are processed. It can also be applied for checking the quality of a data set.
EN
Unified Modeling Language (UML) is a commonly known OMG (Object Management Group) standard for designing software systems. However, practice shows that the usage of UML varies depending on the specificity of a software system and company. The authors decided to explore the perspective of students with experience in using UML by conducting an exploratory survey with them. Analysis of the data gathered revealed that they use UML diagrams as an additional help when developing software. The main risk turned out to be different diagram interpretations. At last, the main motivation to learn UML was obtaining a credit at university.
PL
Unified Modeling Language (UML) jest powszechnie nauczanym i stosowanym standardem Object Management Group (OMG) służącym do opisu systemów informatycznych. Jednakże praktyka pokazuje, że użyteczność UML waha się w zależności od specyfiki projektu i systemu informatycznego. Autorzy zdecydowali się przeprowadzić ankietę badającą opinie studentów, mających styczność z językiem UML, na temat wykorzystania wykonanych w nim diagramów. Analiza zebranych ankiet wykazała, że diagramy UML pełnią zazwyczaj rolę pomocniczą, głównym ryzykiem ich użycia są różnice w ich interpretacji, a główną motywacją do nauki jest uzyskanie zaliczenia na uczelni.
PL
Artykuł odpowiada na pytanie, która baza danych jest najlepszym wyborem do efektywnego składowania danych opisujących modele UML. Wzięto pod uwagę trzy produkty: MongoDB, PostgreSQL i Neo4J. Na badanie efektywności składa się pomiar czasu odpowiedzi zapytań zapisujących oraz pobierających dane. Uwzględnia również stopień wzrostu pamięci podczas wstawiania danych oraz ocenę poziomu skomplikowania implementacji mapującej dane testowe do wykorzystania w zapytaniach do baz danych.
EN
The study answers the question which database is the best choice for efficient data storage of UML models. Three products were considered: MongoDB, PostgreSQL and Neo4J. The effectiveness test consists of measurement the response time of queries that save and load data. This study also take into account the memory increase ratio during data insertion and the level of complexity of the implementation of the test data mappers used in database queries.
EN
Background: UML class diagrams can be automatically validated if they are compliant with a domain knowledge specified in a selected OWL 2 domain ontology. The method requires translation of the diagrams into their OWL 2 representation. Aim: The aim of this paper is to present transformation and verification rules of UML class diagrams to their OWL 2 representation. Method: The analysis of the results of the systematic literature review on the topic of transformation rules between elements of UML class diagrams and OWL 2 constructs. The purpose of the analysis is to present the extent to which state-of-the-art transformation rules cover the semantics expressed in class diagrams. On the basis of the analysis, new transformation rules expressing the semantics not yet covered but expected from the point of view of domain modelling pragmatics have been defined. Results: The first result is the revision and extension of the transformation rules identified in the literature. The second original result is a proposition of verification rules necessary to check if a UML class diagram is compliant with the OWL 2 domain ontology. Conclusion: The proposed transformations can be used for automatic validation of compliance of UML class diagrams with respect to OWL 2 domain ontologies.
PL
W artykule przedstawiono zagadnienie doskonalenia procesu obsługi zgłoszeń reklamacyjnych dotyczących niezgodności jakościowej urządzeń fiskalnych, wytwarzanych na potrzeby branży handlu detalicznego. Na podstawie obowiązujących przepisów opisano aspekt prawny warunków organizowania działań serwisowych dla kas rejestracyjnych w Polsce. Opracowano modele przepływu informacji wykorzystywanych w procesie obsługi klienta, prowadzonej przez autoryzowany punkt serwisowy urządzeń fiskalnych, z wykorzystaniem notacji BPMN 2.0. Opracowano również modele konceptualny i fizyczny bazy danych umożliwiającej ewidencjonowanie i obsługę zgłoszeń reklamacyjnych przez producenta urządzeń. Wdrożenie implementacji pozwoliło autorowi na wykonanie oceny skuteczności zaprojektowanego rozwiązania.
EN
The article discusses the issue of improving handling of complaints concerning the qualitative incompatibility of fiscal devices manufactured for the retail industry. Based on the regulations in force in Poland, the legal aspect of the conditions for organizing service activities for the cash register devices is described. Models of information flow used in the customer service process by an authorized service center of fiscal equipment, developed using the BPMN 2.0 notation. Conceptuals model and structures database, to allows for the recording and application handling by the device manufacturer, have also been developed. Implementation allowed the author to evaluate the effectiveness of the designed solution.
EN
Background : Due to the increasing complexity of embedded systems, system designers use higher levels of abstraction in order to model and analyse system performances. STARSoC (Synthesis Tool for Adaptive and Reconfigurable System-on-Chip) is a tool for hardware/software co-design and the synthesis of System-on-Chip (SoC) starting from a high level model using the StreamsC textual language. The process behaviour is described in the C syntax language, whereas the architecture is defined with a small set of annotation directives. Therefore, these specifications bring together a large number of details which increase their complexity. However, graphical modelling is better suited for visualizing system architecture. Objectives : In this paper, the authors propose a graphical modelling editor for STARSoC design tool which allows models to be constructed quickly and legibly. Its intent is to assist designers in building their models in terms of the UML Component-like Diagram, and in the automatic translation of the drawn model into StreamsC specification. Methods : To achieve this goal, the Model-Driven Engineering (MDE) approach and well-known frameworks and tools on the Eclipse platform were employed. Conclusion : Our results indicate that the use of the Model-Driven Engineering (MDE) approach reduces the complexity of embedded system design, and it is sufficiently flexible to incorporate new design needs.
PL
Rosnące zainteresowanie firm integracją oraz interoperacyjnością systemów informatycznych spowodowało wzrost znaczenia architektury usługowej (ang. Service-Oriented Architecture), która zapewnia narzędzia umożliwiające integrację aplikacji korporacyjnych (ang. Enterprise Application Integration). W tym sensie magistrala usług (ang. Enterprise Service Bus) zapewnia techniczne możliwości komunikacji między systemami informatycznymi. Kluczowym elementem w tej komunikacji są przepływy integracyjne. Cel: Celem artykułu jest przedstawienie nowej transformacji Integration2BPEL, która automatyzuje konstrukcję wykonywalnego przepływu integracyjnego wyrażonego w języku Web Services Business Process Execution Language (BPEL) na podstawie modelu tego przepływu przedstawionego na diagramie aktywności języka Unified Modeling Language (UML). Metoda: Autorzy proponują transformację typu model-to-code generującą przepływ integracyjny wyrażony w BPEL, który może być uruchamiany w dowolnym silniku procesów BPEL. Przepływ integracyjny modelowany jest za pomocą diagramu aktywności języka UML z użyciem stereotypów z profilu „UML Profile for Integration Flows” w środowisku IBM Rational Software Architect (RSA). Przy zastosowaniu transformacji Integration2BPEL generowany jest kompletny, wykonywalny przepływ integracyjny złożony z wielu mechanizmów mediacyjnych. Wygenerowany przepływ integracyjny uruchamiany był na magistrali usług OpenESB. Wyniki: Możliwość generacji kompletnego przepływu integracyjnego w BPEL, który bez żadnych uzupełnień może być uruchamiany na magistrali usług. Zautomatyzowana została faza implementacji przepływu integracyjnego. Każdy z przepływów integracyjnych implementowany jest według takich samych zasad. Ponadto, unika się dzięki temu błędów popełnianych przez projektantów i programistów. Wnioski: Wytwarzanie oprogramowania sterowane modelami (ang. Model-Driven Development) jest podejściem, które może prowadzić do automatyzacji fazy projektowania i programowania. Uzyskuje się wprowadzenie jednolitego mechanizmu konstrukcji przepływu integracyjnego.
EN
The growing interest of companies in integration and interoperability between information systems has caused increase in significance of Service-Oriented Architecture which provides tools for Enterprise Application Integration. In that architecture, Enterprise Service Bus provides technical possibilities of communication between IT systems. A key element in the communication are integration flows. Objective: The aim of this article is to present a new transformation Integration2BPEL, which automates the development of executable integration flow expressed in the Web Services Business Process Execution Language (WS-BPEL) based on the model of the integration flow presented in the Unified Modelling Language (UML) activity diagram. Method: The author proposes a transformation of the type of model-to-code type which generates integration flow expressed in WS-BPEL, which can be executed in any BPEL-compliant process engine. The integration flow is modelled using UML activity diagram with stereotypes from ‘UML Profile for Integration Flows’ profile in an IBM Rational Software Architect (RSA). Using Integration2BPEL transformation a complete, executable integration flow is generated, which is composed of many mediation mechanisms. Generated integration flows have been executed on OpenESB. Results: The ability to generate a complete integration flow in BPEL, which without any additions can be run on enterprise service bus. Implementation phase of an integration flow construction was automated. Each of integration flows is implemented according to the same rules. In addition, it allows to avoid mistakes made by designers and programmers. Conclusions: Model-Driven Development is an approach that leads to the automation of the design and programming phases. Integration2BPEL transformation is a uniform mechanism to design integration flow. Potentially, it also allows to avoid implementation errors.
EN
In the paper product and design process modeling on the basis of speed reducer is presented. The paper proposes to build the product and process models and parallel to that carry out the project activities as these models reflect the detailed structure of the projects. The most important feature of the proposed approach is its possibility to model only important parts of the models and to keep track of the development of their chronological paths. The approach may be treated as a partial CPM/MOKA model or as network-integrated CPM/MOKA models.
PL
W artykule przedstawiono koncepcję automatyzacji procesu projektowania urządzeń srk. Zastosowano przy tym podejście systemowe i modelowanie obiektowe obejmujące całość procesu projektowania. Podjęto próbę udowodnienia, że automatyzacja tworzenia projektu urządzeń srk jest możliwa i bardzo efektywna w zakresie wszystkich powtarzalnych, typowych i ustandaryzowanych czynności. Przedstawiono autorską koncepcję systemu automatyzacji projektowania (SAP). System opiera się na dostępnym oprogramowaniu oraz idei otwartej platformy. W systemie wdrożono szereg rozwiązań autorskich: program łączenia danych z grafiką, skrypty automatyzujące tworzenie schematów, metody pozyskiwania danych. Zaprezentowano modele: struktury, danych i działania SAP wykorzystując w tym celu język modelowania obiektowego UML. Podjęto próbę oceny efektywności wdrożenia koncepcji.
EN
The paper presents the concept of automation of the design process for the railway traffic control devices. The system approach and object modelling, covering the whole of designing process, was applied. An attempt to prove that the automation project development of railway traffic control device is possible and that it is very effective for all repetitive, typical and standardized operations was undertaken. The authors present an original concept of system design automation (SAP). The system is based on the available software and the idea of an open platform. A number of authors’ solutions such as: a program combining data with graphics, scripts that automate the creation of schemes, methods of data collection were implemented in the system. The models such as: structure, data, and SAP activities using the object-oriented modeling language UML were presented in the paper. An attempt to assess the effectiveness of the implementation of the concept was described.
13
Content available Ocena rozdzielczości pojęciowej zbioru danych
PL
Aktualny sposób określania rozdzielczości zbiorów danych w postaci mianownika skali mapy wydaje się być niewystarczający. Zdaniem autora można zaproponować sposób opisu rozdzielczości zbiorów danych, bazujący na standardach ISO z zakresu informacji geograficznej (seria ISO 19100) oraz ocenie złożoności systemów informatycznych (ISO 19761; ISO 20926), a także aksjomatycznej teorii poznania. Proponowana metoda obejmuje tylko jeden aspekt rozdzielczości zbiorów danych – rozdzielczość pojęciową. Dotyczy ona zbiorów danych zdefiniowanych na poziomie Platform Independent Model (PIM) w podejściu Model Driven Approach (MDA). Najważniejszym elementem koncepcji oceny rozdzielczości pojęciowej jest identyfikacja najmniejszych porcji informacji (cech atomowych) zakodowanych w schemacie pojęciowym wyrażonym w postaci diagramów klas UML. Autor proponuje zestaw reguł służących do identyfikacji cech atomowych i na ich podstawie obliczenie rozdzielczości pojęciowej schematu aplikacyjnego. Proponowany sposób wyliczania rozdzielczości znajduje zastosowanie wyłącznie dla specyfikacji zbiorów danych utworzonych na podstawie norm i dokumentów normatywnych ISO serii 19100 dotyczących informacji geograficznej.
EN
Actually the way of determining a data set resolution by an equivalent scale seems to be insufficient. In the author's opinion, there is a way to describe a data set resolution based upon the concepts of the ISO 19100 series of Geographic Information Quality Standards, the ISO 19761 COSMIC Measurement Standard and the software and system engineering (ISO 20926), as well as the base concepts of the axiomatic theory of knowledge. The proposal allows to calculate only one aspect of data density – the conceptual resolution. In practice it concerns datasets defined on the PIM level (Platform Independent Model) according to the Model Driven Approach – MDA). The most important element of the proposed method is to identify the smallest information portion (atomic property) coded in the conceptual schema expressed by the UML class diagram. The key of identifying is to understand information given by the application schema. In this paper the author proposes a set of rules to identify the atomic property in the application schema. Based upon identified atomic properties the author proposes the way to calculate the conceptual resolution of the application schema.
PL
Celem niniejszej pracy jest zinwentaryzowanie różnic pomiędzy modelem danych INSPIRE dla tematów: „działki katastralne” i „budynki” a obowiązującym modelem danych ewidencji gruntów i budynków. W ramach pracy wykonano analizę dostosowania tych modeli, mającą na celu sprawdzenie, na ile polskie zbiory danych katastralnych, gromadzone zgodnie z modelem danych według (Rozporządzenie, 2001), są zgodne z wymaganiami zawartymi w specyfikacjach INSPIRE dla analizowanych tematów, (INSPIRE–D2.8.I.6, 2014) i (INSPIRE–D2.8.III.2, 2013).W wyniku przeprowadzonych analiz stwierdzono, że obowiązujący model danych ewidencji gruntów i budynków spełnia wymagania INSPIRE dla tematów: „działki katastralne” i „budynki”. Jednakże, znaczna część atrybutów opcjonalnych, występujących w modelach danych INSPIRE, nie będzie mogła być zasilona danymi zawartymi w zbiorach krajowych.
EN
The purpose of this work is making an inventory of the differences between the INSPIRE data model for the themes „cadastral parcel” and „buildings” and the current data model records of the land and buildings registry. As a part of the work we analyzed the relevant adaptation of these models; one of the objectives was to check how many Polish cadastral data sets, collected in accordance with the data model (2001) meet the requirements set out in the INSPIRE specifications for analyzed themes, (INSPIRE- D2.8.I.6, 2014) and (INSPIRE-D2.8.III.2, 2013). As a result of the analysis, it was found that the existing data model is compliant with the requirements of INSPIRE for the themes “cadastral parcels” and „buildings”. However, a significant part of optional attributes included in INSPIRE data models cannot be supported by data contained in the national repository.
EN
The paper describes a translation of object behavior specified by UML into semantically equivalent Petri net models. The translation focuses on object behavior with event handling implemented in UML. The resulted Petri net allows to check UML model properties not only by simulation but also in formal way. For possibly closest congruence between UML and Petri net model an event queue is defined. Each state machine assigned to an object has its own event queue which is available as long as the machine exists. It allows modeling not just a simple message passing but also cases, when state machine cannot handle an event. A higher priority of sub-machine's event queue is also considered. The presented solution is a part of wider conversion algorithm from UML model into Petri nets [12]. However, the paper is intended to describe the issue in such a detailed way and focuses on aspects crucial for embedded systems development.
EN
The paper is focused on the processes of software development of enterprise systems. It is related to the new concept of software development paradigm named Context-Driven Meta-Modeling Paradigm (CDMM-P) introduced by the author. The CDMM-P can be applied to define modeling or meta-modeling languages, to construct enterprise systems data layer. The CDMM-P concept is based on application open ontologies in the form composed of notions characteristic for software engineering and it constitutes the first implementation and the first application of open ontologies in software engineering domain. The paper presents the concept of a shift of existing OMG standardization approach. It explains why the CDMM-P graph representation and its API should be the subject of standardization in place of MOFbased close ontology structures.
EN
The main contribution of this paper is the working case study for meta-modeling process performed in open ontologies. It contrasts to close ontology based approaches well known from software engineering discipline. Moreover, in place of ontological standards like Resource Description Framework (RDF) defined by World Wide Web Consortium (W3C) or Web Ontology Language (OWL) by W3C and Object Management Group (OMG), the presented meta-modeling approach is based on notions characteristic for software engineering, like class, relationship, Unified Modeling Language (UML), UML Profile, stereotype, meta-model as well as for enterprise applications. This approach is feasible as it refers to the concept of Context-Driven Meta-Modeling (CDMM) introduced in previous papers and implemented in the form of Context-Driven Meta-Modeling Framework (CDMM-F). The case study is realized in the form of graphical UML modeling of the modeling language (metamodel) in the Context-Driven Meta-Modeling Meta-Modeler (CDMM-MetaModeler) Thus the presented case-study constitutes the proof-of-the-concept for graphical meta-modeling for all mentioned concepts and their implementations. It also displays the nature of the meta-modeling process in this paradigm and explains some mechanisms that play important role when process effectiveness and convenience of the meta-model designer are taken into account.
EN
Time aspects play an essential role in real-time systems. One of the most often used techniques of designing real-time systems is the timed statecharts (TSCs) technique. In this paper, new timed statecharts based on UML notation are introduced. The main difference between the UML statecharts and the TSCs presented in the paper is the pair of minimal and maximal execution times assigned to states of the TSCs. Additionally, any interaction can be characterized by its minimal and maximal duration time. Moreover, the paper presents semantics for TSCs, emphasizing time aspects rather than variable valuation. The minimal and maximal execution time problem (MMETP) for TSCs is defined and the computational complexity of the MMETP is studied. It is proven in this paper that there is a limit between such TSCs for which there exists a polynomial algorithm for MMETP and such TSCs for which MMETP remains NP-hard. The mentioned limit is located between the AND state with any number of XOR states that are expressed by simple paths without guards and the AND state with two XOR states with no limitations. Since the MMETP is NP-hard, it is reasonable to use structural reductions of TSCs. A Theorem that is the theoretical foundation of a program loop reduction is proven.
19
Content available Automatic SUMO to UML translation
EN
Existing ontologies are a valuable source of domain knowledge. That knowledge could be extracted and reused to create domain models. The extraction process can be aided by tools that enable browsing ontology, marking interesting notions and automatic conversion of selected elements to other notations. The paper presents a tool that can be used for SUMO to UML translation. Such transformation is feasible and results in a high-quality domain model, which is consistent, correct, and complete providing that input ontology has the same features.
EN
UML activity diagrams are primarily used to visualise scenarios. The verification of activity diagrams consistency is subsequently needed to identify errors in requirements at the early stage of the development process. The consistency verification is difficult due to a semi-formal nature of activity diagrams. We propose to extend the activity diagram to the new Functional-Structure-Behaviour (FSB) UML diagram to enable automatic verification of consistency of scenarios of the visualized use cases. Moreover the FSB UML diagram enables simultaneous modelling of the functionality, of the structure and of the behaviour of the target system model. Thus the proposed Functional-Structure-Behaviour UML activity diagram enables consistent and complete models to be developed from scenarios. Furthermore the FSB UML activity diagram can be used for automatic generation of complete workflow applications without any manual programming.
PL
Diagramy aktywności UML używane są przede wszystkim do wizualizacji scenariuszy. W celu wyeliminowania błędów w przyszłym systemie niezbędny okazuje się proces weryfikacji tych diagramów UML. Weryfikacja spójności jest jednakże dość złożonym zagadnieniem, gdyż diagramy aktywności nie są formalnym sposobem zapisu wymagań. Proponujemy rozszerzenie diagramów aktywności UML do diagramów nazwanych przez nas diagramami Funkcjonalność-Struktura-Behawioryzm (FSB) UML które umożliwiają automatyzację weryfikacji spójności scenariuszy wizualizowanych przypadków użycia. Co więcej diagram FSB UML umożliwia równoczesne modelowanie funkcjonalności, struktury i zachowania docelowego modelu systemu. Dlatego też zaproponowany diagram aktywności FSB UML umożliwia również opracowywanie kolejnych spójnych i kompletnych modeli na jego podstawie. Ponadto diagram aktywności FSB UML może być wykorzystany do automatyzacji generowania aplikacji typu workflow bez potrzeby ręcznego programowania.
first rewind previous Strona / 7 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.