Praca poświęcona jest zagadnieniu automatycznego wykonywania złożonych zadań w systemach składających się z robotów mobilnych i urządzeń połączonych w sieć komunikacyjną. Przykładem takiego systemu może być zespół robotów usługowych pracujących w inteligentnym środowisku. Proponowane rozwiązanie polega na stworzeniu odpowiedniej infrastruktury informacyjnej (systemu rozproszonego) opartej na SOA. W skład tej infrastruktury wchodzą: wspólna reprezentacja środowiska (ontologia), język opisu tej ontologii służący do tworzenia interfejsów usług i definiowania zadań, oraz protokoły komunikacyjne.
EN
The paper addresses the problem of automatic accomplishment of complex tasks in a system consisting of mobile robots and devices connected to one communication network, e.g. service robots working in an intelligent environment. The proposed solution is to create appropriate information infrastructure (a distributed system) based on SOA containing: a common environment representation (ontology), a language for decsribing the ontology, defining services interfaces and tasks, and communication protocols.
Zaproponowano nowe podejście (architekturę) do budowy układu sterowania pojedynczym robotem mobilnym. Bazuje ono na paradygmacie SOA, w którym robot widziany jest jako zbiór świadczonych przez siebie usług. W informatyce paradygmat SOA jest uznanym i często stosowanym podejściem do projektowania rozproszonych systemów. W robotyce takim systemem jest niewątpliwie system wielorobotowy. Próba przeniesienia paradygmatu SOA w obszar robotyki ma na celu wykazanie przydatności tego podejścia w robotyce mobilnej. Zaproponowana architektura układu sterującego robotem mobilnym składa się z czterech warstw programowych. Najniższa warstwa, tj. warstwa kontroli urządzeń i agregacji danych, odpowiedzialna jest za kontrolę urządzeń (sensorów, manipulatorów itp.), w które wyposażony jest robot oraz za agregację, przetwarzanie i fuzję pozyskanych z nich danych. Funkcje kolejnej warstwy nawigacji, zwykle implementowane są przez system nawigacyjny robota, który umożliwia m.in. sprawne wyznaczanie i pokonywanie tras. Kontrolery wykonania usług rezydują w warstwie logiki wykonania usług i są odpowiedzialne za realizację poszczególnych usług świadczonych przez robota. W najwyższej warstwie, tj. warstwie zarządzania usługami, znajduje się Menadżer Usług, odpowiedzialny za komunikację systemu robota z pozostałymi komponentami systemu SOMRS oraz za zarządzanie wykonaniem usług na robocie. Na podstawie opracowanej architektury powstał prototyp systemu robota, który został zainstalowany na dwóch robotach typu Pioneer P3-DX. Eksperymenty z udziałem tych robotów pozwoliły na weryfikację przydatności opracowanej architektury w praktycznych zastosowaniach.
EN
A new architecture of a control system of a mobile robot is proposed. It is based on the SOA paradigm (Service Oriented Architecture), in which the robot is seen as a set of services it provides. In Computer Science, the SOA paradigm is a valid and often used approach when designing distributed systems. A multirobot system is an example of such a system. The proposed architecture of a mobile robot control system consists of four software layers. The lowest layer, the device control and data aggregation layer, is responsible for the control of devices ( sensors, effectors, etc.), with which the robot is equipped, and for aggregation , processing and fusion of data gathered by these devices. Functions of the next layer, the navigation layer, are usually implemented by a robot navigation system which enables efficient determination of routes and robot movement. Service execution controllers reside in the service execution logic layer and are responsible for the realization of various services provided by the robot. The top layer, the service management layer, consists of Services Manager which is responsible for the communication between the robot control system and the other components of the SOMRS system as well as for the management of service realization. A prototype robot system was developed based on the proposed architecture. It was installed on two Pioneer P3-DX mobile robots. Experiments involving these robots allowed us to verify the usefulness of the developed architecture in practical applications.
3
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The claim is that blind persons can perceive objects like door, pillar, ditch, elevator, passage, room, hall, building, street, etc., having only mobile cellular phones. The primary goal of all positioning systems is to determine the user’s position as precisely as possible, whereas the main purpose of our project is to provide a blind person with the ability to locate an object and then to perceive it by getting to know its attributes. This permits area familiarization and route planning. Object position may be one of the attributes. Once a blind person identifies an object (by being close to it), she/he can get to know her/his position from the object attributes. It is interesting that the position is not so important also for sighted persons; the position is usually relative and can be derived from perceiving orientation points (e.g., interesting objects) that have already been remembered. The crucial assumption of our project is that objects can be located (identified) using IrDA connectivity. This means that in order to be located an object must have an infrared transceiver (standard IrDA controller) that transmits data (to a mobile) containing the object’s identifier and the azimuth of the infrared message beam and, if it is necessary the current values of some of its attributes. Given the object’s identifier the complete object description can be downloaded from a local or global repository via Bluetooth, or/and GPRS connectivity of a mobile. It is important to note that, unlike Talking Signs, the description is not in a voice format. It is expressed in terms of generic attributes and types so that it can be processed automatically. Only the result of such processing is delivered to a blind user as voice.
PL
Osoba niewidoma może postrzegać obiekty, takie jak drzwi, słupy, windę, przejście, pokój, budynek, ulicę, itd. dysponując jedynie telefonem komórkowym w swojej ręce. Najważniejszym zadaniem systemu pozycyjnego jest określenie położenia użytkownika z największą możliwą precyzją, podczas gdy głównym celem naszego projektu jest zapewnienie osobie niewidomej zdolności do zlokalizowania obiektu, a następnie poznania go poprzez wartości jego atrybutów. Pozwala to na zapoznanie się z otoczeniem i planowanie trasy. Pozycja obiektu może być jednym z jej atrybutów. W momencie, gdy osoba niewidoma zidentyfikuje obiekt (przez zbliżenie się do niego), wówczas będzie w stanie poznać swoją pozycję poprzez wartość odpowiedniego atrybutu. Interesującym faktem jest to, że pozycja nie jest tak istotna również dla osób widzących, gdyż jest ona najczęściej względna; może być określona na podstawie odniesienia do punków orientacyjnych (interesujących miejsc), których położenie jest już znane. Podstawowym założeniem naszego projektu jest to, że obiekty mogą być lokalizowane (identyfikowane) przy użyciu technologii IrDA. Oznacza to, że, aby obiekt mógł być zlokalizowany musi posiadać nadajnik podczerwieni, który będzie transmitował identyfikator obiektu, azymut wiązki podczerwieni i, jeśli to będzie konieczne, aktualne wartości atrybutów dynamicznych, zmieniających się w czasie. Znając identyfikator obiektu, użytkownik będzie w stanie pobrać kompletny opis obiektu z lokalnego lub globalnego repozytorium. Należy zaznaczyć, że w przeciwieństwie do systemu Talking Signs [1], opis nie jest w formacie dźwiękowym. Jest wyrażony w języku, na który składają się definicje typów, atrybutów i obiektów. Takie podejście czyni możliwym i łatwym automatycznie analizowane opisów danych obiektów. Jedynie rezultat ich przetwarzania jest przekazywany osobie niewidomej w postaci głosu.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.