Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 18

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The paper presents an original method of dynamic classication of objects from a new domain which lacks an expert knowledge. The method relies on analysis of attributes of objects being classied and their general quality Q, which is a combination of particular object's attributes. The method uses a test of normality as a basis for computing the reliability factor of the classication (rfc), which indicates whether the classication and the model of quality Q are reliable. There is no need to collect data about all objects before the classication starts and possibly the best objects ale selected dynamically (on-the-y) while data concerning consecutive objects are gathered. The method is implemented as a software tool called Articial Classication Adviser (ACA). Moreover, the paper presents a case study, where the best candidates for reghting mobile robot operators are selected.
2
Content available A Low-cost Multicomputer for solving the RCPSP
EN
In the paper it is shown that time necessary to solve the NP-hard Resource-Constrained Project Scheduling Problem (RCPSP) could be considerably reduced using a low-cost multicomputer. We consider an extension of the problem when resources are only partially available and a deadline is given but the cost of the project should be minimized. In such a case nding an acceptable solution (optimal or even semi-optimal) is computationally very hard. To reduce this complexity a distributed processing model of a metaheuristic algorithm, previously adapted by us for working with human resources and the CCPM method, was developed. Then, a new implementation of the model on a low-cost multicomputer built from PCs connected through a local network was designed and compared with regular implementation of the model on a cluster. Furthermore, to examine communication costs, an implementation of the model on a single multi-core PC was tested, too. The comparative studies proved that the implementation is as ecient as on more expensive cluster. Moreover, it has balanced load and scales well.
EN
Cost-efficient project management based on Critical Chain Method (CCPM) is investigated in this paper. This is a variant of the resource-constrained project scheduling problem (RCPSP) when resources are only partially available and a deadline is given, but the cost of the project should be minimized. RCPSP is a well- known NP hard problem but originally it does not take into consideration the initial resource workload. A metaheuristic algorithm driven by a metric of a gain was adapted to solve the problem when applied to CCPM. Refinement methods enhancing the quality of the results are developed. The improvement expands the search space by inserting the task in place of an already allocated task, if a better allocation can be found for it. The increase of computation time is reduced by distributed calculations. The computational experiments showed significant efficiency of the approach, in comparison with the greedy methods and with genetic algorithm, as well as high reduction of time needed to obtain the results.
EN
Validation and testing are important in developing correct and fault free SOA-based systems. BPEL is a high level language that makes it possible to implement business processes as an orchestration of web services. In general, the testing requires much more test scenarios than the validation. However, in the case of BPEL processes, which have very simple and well structured implementation, test scenarios limited to the validation may also be efficient. The paper describes an experiment that aims at answering a question whether or not the validation test scenarios are also adequate for testing an implementation of BPEL processes. The experiment employs a Software Fault Injector for BPEL Processes that is able to inject faults when the test scenarios are running. The results of the experiment seem very promising. Hence, it seems that validation tests might give astrong support for testing.
EN
The paper presents resource allocation optimization in Critical Chain Project Management (CCPM). The cheapest project schedule is searched with respect to time constraints. The algorithm originally developed for the hardware-software co-design of heterogeneous distributed systems is adapted to work with human resources and CCPM method. The results of the optimization showed significant efficiency of the algorithm in comparison with a greedy algorithm. On average, the optimization gives 14.10% of cost reduction using the same number of resources. The gain varies depending on the number of resources and the time constraints. Advantages and disadvantages of such an approach are also discussed.
6
Content available remote Efficient data management on a multicomputer
EN
High performance, fault tolerance and scalability are usual requirements for an application running on a multicomputer. The paper presents different variants of centralized SDDS LH* architecture in the light of all the requirements. Hence, the paper briefly summarizes already published features of SDDS that concern data scalability and fault tolerance, and then introduces a new option for SDDS called throughput scalability that can balance workload of nodes of a multicomputer. Finally, having met all the requirements for efficient management of data on a multicomputer the SDDS schemes are estimated as for the time and memory overhead.
PL
Wysoka wydajność, odporność na błędy i skalowalność to typowe wymagania aplikacji dla multikomputerów. W artykule zaprezentowano różne odmiany struktur SDDS LH* o architekturze scentralizowanej w świetle wszystkich tych wymagań. Podsumowano znane już możliwości struktur SDDS dotyczące skalowalności danych i odporności na błędy oraz przedstawiono nową funkcjonalność SDDS nazwaną skalowalnością przepustowości, pozwalającą na zrównoważenie obciążenia węzłów multikomputera. Ostatecznie, po spełnieniu wszystkich wymagań w kwestii efektywnego zarządzania danymi w obrębie multikomputera, struktury SDDS są analizowane pod względem kosztów czasowych i pamięciowych.
EN
Systematic and rigorous validation carried out during entire process of development of a software intensive system can significantly reduce total costs and time to market and improve the quality of the system. In context of developing object-oriented systems (OOSs) information relevant to validation can be derived from early UML models. The paper presents next results of the work on a novel approach to generation of test scenarios from UML models for validation of OOSs against specification requirements.
PL
Systematyczna walidacja, prowadzona w trakcie projektowania systemu informatycznego, może w znaczący sposób zredukować czas oczekiwania na produkt i poprawić jego jakość. W kontekście projektowania systemów obiektowych, informacje istotne dla walidacji mogą być uzyskane na postawie modeli UML. W tym artykule zaprezentowano kontynuację prac nad nową metodą generacji scenariuszy testowych do walidacji systemów obiektowych na podstawie modeli UML.
8
EN
Efficient data management and distribution in a multicomputer is a subject of much research. Distributed file systems are the most common solution of this problem, however, recent works are focused on more general data distribution protocols. Scalable, Distributed Data Structures (SDDS) are another promising approach to this issue. In this paper we discuss the efficiency of an implementation of SDDS in various applications. The results of experiments are presented.
EN
A description which summarizes entire and usually big set of data is called its model. The problem investigated in the paper consists in verification of models of data coming from a simulation experiment of selecting candidates for operators of mobile robot (more strictly building reliable predictive model of the data). The models are validated using train-and-test method and verified with the help of the EM (expectation-maximization) algorithm which was originally designed for solving clustering problems with missing data. Actually, the selecting is a clustering problem because the candidates are assigned to ‘chosen’, ‘accepted’ or ‘rejected’ subgroups. For such a case the missing data is the category (the subgroup) for which a candidate should be assigned on the basis of his activity measured during the simulation experiment. The paper explains the procedure of model verification. It also shows experimental results and draws conclusions.
PL
Celem niniejszego artykułu jest adaptacja metody ścieżki krytycznej do procesów definiowanych w języku BPEL. W artykule pokazano, że po spełnieniu kilku założeń proces BPELa może być postrzegany jako system zamknięty, w którym komunikacja pomiędzy zadaniami odbywa się za pomocą i przy udziale koordynatora (aranżera) działającego zgodnie z grafem zadań systemu, a zadania odpowiadają funkcjom koordynatora.
EN
The main purpose of this research is an adaptation of critical paths method to processes defined in BPEL. In the paper it is showed that under some assumptions BPEL process may be considered as an embedded system, in which communication between tasks is like coordination of the services according to task graph of the system and tasks are like coordinator's functions. An example is given where a set of test scenarios is presented.
11
Content available remote Experimental evaluation of two touring simulators for training operators of mobot
EN
In the paper two versions of a touring simulator are presented and evaluated. Both versions were developed for training mobot operators. Operators improve their skills playing a game based on the simulator. For simulators the problem of the precision of simulation usually appears. The same is here. Therefore, the simulators differ in quality of graphics. In the paper a usefulness of the simulators for training is evaluated. Experiments answered the question how important for efficient training is high quality of graphics generated by the simulator.
PL
W artykule przedstawiono i porównano dwie wersje symulatora marszruty. Obie wersje zostały przygotowane w celu trenowania operatorów mobilnego robota (mobota). Operatorzy poszerzają swoje umiejętności w trakcie gry opartej na symulatorze. W przypadku symulatorów zawsze pojawia się problem precyzji symulacji. Z tego powodu wersje symulatora różnią się precyzją odwzorowania trasy mobota. W artykule porównano przydatność obu wersji do trenowania operatorów. Przeprowadzone eksperymenty pozwoliły odpowiedzieć na pytanie, jak ważna dla wydajnego szkolenia jest precyzja symulatora.
12
Content available remote Kreator scenariuszy testowych do walidacji reaktywnych systemów zamkniętych
PL
Podstawową techniką walidacji w przypadku reaktywnych systemów zamkniętych jest symulacja. Wyznaczenie odpowiedniego zbioru scenariuszy testowych, pozwalających na sprawdzenie poprawności funkcjonalnej i czasowej projektowanego systemu, jest zadaniem trudnym i bardzo pracochłonnym. Zatem duże znaczenie praktyczne ma automatyzacja tego procesu. W niniejszym artykule przedstawiono prototypowe narzędzie implementujące oryginalną metodę generacji scenariuszy testowych dla reaktywnych systemów zamkniętych oraz wyniki eksperymentów przeprowadzonych z jego zastosowaniem.
EN
Simulation is the key validation technique for reactive embedded systems. Generation of a suitable set of test scenarios for checking functional and temporal correctness of a system is a difficult task. Computer-aided test scenarios generation has thus a practical meaning. This paper presents a tool implementing a method of test scenarios generation for reactive embedded systems and the results of experiments carried out with the help of this tool.
EN
Scalable Distributed Data Structures (SDDS) consists of two components dynamically spread across a multicomputer: data records belonging to a file and a mechanism controlling record placement in file space. Record (data) faults may lead to invalid computations at most, while faults concerning record placement mechanisms may lead whole SDDS file to crash. In this paper, cause-effect analysis of record placement faults concerning SDDS RP* (Range Partitioning) file is given.
PL
Skalowalne Rozproszone Struktury Danych (SDDS) składają się z dwóch komponentów rozproszonych dynamicznie w obrębie multikomputera: danych należących do pliku oraz mechanizmu kontroli położenia rekordów w pliku. Błędy rekordów (danych) mogą co najwyżej doprowadzić do błędnych obliczeń, podczas gdy błędy związane z mechanizmem rozmieszczania rekordów mogą doprowadzić cały plik SDDS do zniszczenia. W niniejszym artykule dokonano analizy przyczynowo-skutkowej błędów rozmieszczania rekordów dotyczących struktur SDDS typu RP* (z podziałem na zakresy).
PL
Skalowane, rozproszone struktury danych (SDDS - Scalable Distributed Data Structures) mają zastosowanie w multikomputerach. Na SDDS składają się dwa składniki rozpraszane dynamicznie w obrębie multikomputera: rekordy należące do pliku oraz sterowanie umieszczaniem rekordów w pliku. W artykule przedstawiono metodę uodporniania SDDS na błędy sterowania umieszczaniem rekordów w pliku, oraz sposób weryfikacji zaproponowanej metody za pomocą symulatora SDDS z programowym wstrzykiwaniem błędów.
EN
Scalable Distributed Data Structures (SDDS) consists of two components dynamically spread across a multicomputer: records belonging to a file and a mechanism controlling record placement in file space. Faults in mechanism controlling record placement in the file may lead an application to crash, while record data faults may cause invalid computations at most. In the paper fault-tolerant architecture for mechanism controlling record placement in SDDS file is presented and evaluated with the help of SDDS oriented software fault injector. The architecture uses Job Comparison Technique along with TMR. Moreover, 'backwarding' to correct every client's addressing fault is applied. Time overhead due to redundancy introduced is estimated.
PL
Wraz z rozwojem technologii syntezy układów cyfrowych wzrosło zapotrzebowanie na skuteczne i szybkie systemy ATPG (Automatic Test Pattern Generation). Na wczesnych etapach projektowania niezbędne są systemy ATPG dostosowane do poziomu wirtualnego prototypu układu, specyfikowanego zazwyczaj w VHDL-u. Na etapie implementacji potrzebne są systemy ATPG dostosowane do poziomu bramkowego układu. Powstaje pytanie, jaka jest praktyczna przydatność oraz perspektywy rozwoju tych systemów? W artykule podjęto próbę odpowiedzi na to pytanie.
EN
New design technologies make possible to create digital systems as complex as never before. By that reason fast and efficient ATPG systems are requested. It's necessary to use ATPG utilities adjusted for virtual prototype (usualy described by VHDL) at early stages of designing process. Implementation demands ATPG systems suitable for gate level of chip. There is a question if that systems are really useful. In this paper we are trying to answer that question.
PL
W warunkach szybko zmieniającego się otoczenia mobilny robot monitorujący to otoczenie jest zazwyczaj sterowany przez operatora. Zadaniem operatora jest znalezienie takiej drogi, po której powinien poruszać się robot, żeby w nieprzekraczalnym czasie zauważyć wszystkie zmiany zaistniałe w otoczeniu. W ramach szerszych badań nad zastosowaniem mobilnych robotów do monitorowania otoczenia opracowano symulator monitorowania oraz metodę zastosowania tego symulatora do profilowania operatorów robota.
EN
In rapid changing environment a mobile robot inspecting this environment is usually controlled by an operator. The goal of the operator is to find a route for the robot such that it notices all changes of the environment before a deadline. As a part of research concerning application of mobile robots for inspecting environment a touring simulator was developed and a method of application of the simulator for robot operators profiling was worked out.
PL
Ray Tracing jako metoda wizualizacji w grafice 3D doskonale nadaje się do generacji obrazów fotorealistycznych. W świetle nowych technologii, uzasadniona wydaje się, ponowna analiza algorytmów związanych z ray tracingiem oraz próba odpowiedzi na pytanie, czy rozwiązania zastosowane w procesorach 64-bitowych oraz wielordzeniowych umożliwią implementację raytracerów działających w czasie rzeczywistym na pojedynczych maszynach. W pracy zostaną zebrane i porównane informacje pozwalające sformułować obiektywną odpowiedź na postawione powyżej pytanie.
EN
Ray tracing is almost perfect solution for photorealistic graphics. However, despite its low complexity ray tracing requires very high processing power. Previously it was assumed that for interactive frame rates a raytracer must ran on a supercomputer or be distributed over a cluster. Now, PCs offer some new capabilities like fast FPUs, caching, multithreading, pipelining and multicoring. So the question whether or not real-time raytracer can run on a PC should be answered. In this paper an approach to develop such PC-based raytracer is given and evaluated so that the above question is answered.
PL
Badania zaprezentowane w niniejszym artykule są częścią większego projektu dotyczącego monitorowania otoczenia za pomocą mobilnych robotów. Robot wykonuje zdjęcia otoczenia i analizuje je samodzielnie lub przesyła do centrali zdalnego sterowania, która decyduje o dalszym postępowaniu robota. W przypadku analizy obraz podlega wstępnej kompresji. Ze względu na specyfikę problemu klasyczne algorytmy kompresji obrazów są w tym przypadku mało przydatne, wymagają bowiem zbyt dużo czasu i pamięci operacyjnej (po stronie robota). Alternatywą jest zastosowanie sygnaturowania. W pracy dokonano analizy różnych typowych schematów sygnaturowania, w celu ustalenia, który z nich byłby najodpowiedniejszy.
EN
This research is a part of larger project concerning an application of mobile robots for investigating environment. A mobile robot moves along established track and takes photos of the environment. Then it analyses the images and detect changes. Traditional algorithms, which handle such tasks, are very time and memory consuming. Time and memory are limited for mobile robot, so in this case another approach should be applied. In this paper we investigated whether or not such approach could be based on data signaturing. Signatures, in most cases are unique, but sometimes signature collisions occur. The collision means that the same signature is assigned to two or more different data objects. LFSR, MD4, MD5 and algebraic signatures were compared with respect to their efficiency and dependability.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.