Modelowanie jest jednym z podstawowych aspektów inżynierii. Dotyczy to w szczególności systemów cyberfizycznych, w tym robotycznych. W artykule zaprezentowano syntetyczny opis dziedzinowego języka opisu systemów cyberfizycznych – EARL (Embodied Agent-Based cybeR-physical Control Systems Modelling Language). Język ten opiera się na SysML (Systems Modelling Language) i służy przede wszystkim do modelowania systemów w sposób zgodny z teoria agentowa szkoły warszawskiej profesora Cezarego Zielińskiego. W artykule zamieszczono tak ̇ze wybrane praktyczne aspekty użycia EARL w modelowaniu konkretnych systemów.
EN
Modelling is one of the fundamental aspects of engineering. This is especially true for cyber-physical systems, including robotic systems. This paper presents a synthetic description of an EARL – Embodied Agent-Based cybeR-physical Control Systems Modelling Language. The language is based on SysML (Systems Modelling Language) and is used primarily to model systems in a manner consistent with the agent theory of the Warsaw school of Prof. Cezary Zieliński. The paper also includes selected practical aspects of using EARL in modelling specific systems.
Praca prezentuje przykład systemu sterowania robota usługowego. Opisano zastosowane narzędzia i otwarte oprogramowanie. Przedstawiono system sterowania poczynając od struktury sprzętu przez specyfikację, aż do implementacji. Opis na poziomie ogólnym pozwala spojrzeć całościowo na problem tworzenia takich systemów, a jednocześnie podkreślono szczegółowe kwestie, które są istotne. Poruszono także kwestie związane z symulacją. Opisany system sterowania robota WUT Velma znalazł zastosowanie w licznych badaniach naukowych.
EN
This work presents an example control system of a service robot. All used concepts, tools and open source software are described. The control system is presented starting from configuration of hardware, specification, up to its implementation. Generality of the image allows the reader to look at the problem globally, while some important, detailed aspects are highlighted. Simulation-related problems are also described. The presented system of WUT Velma robot has been used in many research works.
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania, ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także rezultaty testów tych algorytmów.
EN
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers.
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania, ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także rezultaty testów tych algorytmów.
EN
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.