Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!

Znaleziono wyników: 8

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Artykuł zawiera propozycję uniwersalnej reprezentacji komponentów działających w heterogenicznych środowiskach a także ich funkcjonalności udostępnianych w postaci usług. Potrzebę semantycznej zgodności w takich systemach można zauważyć obserwując gwałtowny rozwój Internetu Rzeczy i możliwości płynących z automatycznego wykorzystania urządzeń w takiej sieci. Proponowana koncepcja systemu HODS, wraz z uniwersalnym protokołem komunikacyjnym BTP, pozwala na automatyzację realizacji zadań z wykorzystaniem urządzeń Internetu Rzeczy, ale nie ogranicza się tylko do nich. Wykorzystane mogą być usługi świadczone przez inne komponenty istniejące w środowisku (np. roboty), a także świadczone przez ludzi. Takie środowisko można nazwać Internetem Wszechrzeczy.
EN
The article proposes a universal representation of components Operating in heterogeneous environments, as well as their functionality provided in the form of services. The need for semantic compatibility in such systems can be seen by observing the rapid development of the Internet of Things and opportunities arising from the use of devices in such a network automatically. The concept of the HODS system, along with a universal communication protocol (ABTP), allows for automatic tasks realization using the Iot devices (but is not limited to them). Services provided by people and by other components existing in the environment (eg. robots) may also be used. Such an environment can be called the Internet of Everything.
2
Content available Architecture of an Autonomous Robot at the IT Level
EN
The paper proposes an architecture for a control system of an autonomous robot as well as an architecture for a multi-robot system in which the robots cooperate in order to accomplish client’s tasks. The solution is based on the SOA paradigm and an ontology as a way of represen ting an environment, and is specified at the Informa- tion Technology level. This approach is focused on intui tive cooperation with a human and automation of a task execution, as well as automation of handling exceptions and changes in the environment. For the purpose of the test scenarios, a sample ontology was created, which allows the human user to define tasks to be performed by a robot. Additionally, a simulation environment was designed and implemented in Unity. It allows for automatic generation of the visual representation of information defined in the ontology, and for testing the effectiveness of the proposed architecture in different types of scenarios with variable sets of services (devices).
PL
W pracy zaproponowana została ontologia, jako reprezentacja środowiska działania robotów oraz architektura systemu wielorobotowego oparta na paradygmacie SOA, która umożliwia człowiekowi/użytkownikowi zlecanie robotom zadań do realizacji.
EN
Architecture of autonomus robot control system (on the level of information technology) was proposed. It is based on the SOA paradigm, and the concept of ontology for modeling robot environment. An example of the ontology was constructed and used in the experimental scenario. A human user can formulate tasks to be accomplished by the robot.
PL
Zaproponowano nowe podejście (architekturę) do budowy układu sterowania pojedynczym robotem mobilnym. Bazuje ono na paradygmacie SOA, w którym robot widziany jest jako zbiór świadczonych przez siebie usług. W informatyce paradygmat SOA jest uznanym i często stosowanym podejściem do projektowania rozproszonych systemów. W robotyce takim systemem jest niewątpliwie system wielorobotowy. Próba przeniesienia paradygmatu SOA w obszar robotyki ma na celu wykazanie przydatności tego podejścia w robotyce mobilnej. Zaproponowana architektura układu sterującego robotem mobilnym składa się z czterech warstw programowych. Najniższa warstwa, tj. warstwa kontroli urządzeń i agregacji danych, odpowiedzialna jest za kontrolę urządzeń (sensorów, manipulatorów itp.), w które wyposażony jest robot oraz za agregację, przetwarzanie i fuzję pozyskanych z nich danych. Funkcje kolejnej warstwy nawigacji, zwykle implementowane są przez system nawigacyjny robota, który umożliwia m.in. sprawne wyznaczanie i pokonywanie tras. Kontrolery wykonania usług rezydują w warstwie logiki wykonania usług i są odpowiedzialne za realizację poszczególnych usług świadczonych przez robota. W najwyższej warstwie, tj. warstwie zarządzania usługami, znajduje się Menadżer Usług, odpowiedzialny za komunikację systemu robota z pozostałymi komponentami systemu SOMRS oraz za zarządzanie wykonaniem usług na robocie. Na podstawie opracowanej architektury powstał prototyp systemu robota, który został zainstalowany na dwóch robotach typu Pioneer P3-DX. Eksperymenty z udziałem tych robotów pozwoliły na weryfikację przydatności opracowanej architektury w praktycznych zastosowaniach.
EN
A new architecture of a control system of a mobile robot is proposed. It is based on the SOA paradigm (Service Oriented Architecture), in which the robot is seen as a set of services it provides. In Computer Science, the SOA paradigm is a valid and often used approach when designing distributed systems. A multirobot system is an example of such a system. The proposed architecture of a mobile robot control system consists of four software layers. The lowest layer, the device control and data aggregation layer, is responsible for the control of devices ( sensors, effectors, etc.), with which the robot is equipped, and for aggregation , processing and fusion of data gathered by these devices. Functions of the next layer, the navigation layer, are usually implemented by a robot navigation system which enables efficient determination of routes and robot movement. Service execution controllers reside in the service execution logic layer and are responsible for the realization of various services provided by the robot. The top layer, the service management layer, consists of Services Manager which is responsible for the communication between the robot control system and the other components of the SOMRS system as well as for the management of service realization. A prototype robot system was developed based on the proposed architecture. It was installed on two Pioneer P3-DX mobile robots. Experiments involving these robots allowed us to verify the usefulness of the developed architecture in practical applications.
EN
An approach to the problem of interoperability in open and heterogeneous multirobot system is presented. It is based on the paradigm of Service Oriented Architecture (SOA) and a generic representation of the environment. A robot, and generally a cognitive and intelligent device, is seen as a collection of its capabilities exposed as services. Several experimental protocols (for publishing, discovering, arranging, and executing the composite services) are proposed in order to assure the interoperability in the system. The environment representation, the description language for tasks and service interfaces definition, as well as the protocols constitute together the proposed information technology for automatic task accomplishment in an open heterogeneous multirobot system.
PL
Praca poświęcona jest zagadnieniu automatycznego wykonywania złożonych zadań w systemach składających się z robotów mobilnych i urządzeń połączonych w sieć komunikacyjną. Przykładem takiego systemu może być zespół robotów usługowych pracujących w inteligentnym środowisku. Proponowane rozwiązanie polega na stworzeniu odpowiedniej infrastruktury informacyjnej (systemu rozproszonego) opartej na SOA. W skład tej infrastruktury wchodzą: wspólna reprezentacja środowiska (ontologia), język opisu tej ontologii służący do tworzenia interfejsów usług i definiowania zadań, oraz protokoły komunikacyjne.
EN
The paper addresses the problem of automatic accomplishment of complex tasks in a system consisting of mobile robots and devices connected to one communication network, e.g. service robots working in an intelligent environment. The proposed solution is to create appropriate information infrastructure (a distributed system) based on SOA containing: a common environment representation (ontology), a language for decsribing the ontology, defining services interfaces and tasks, and communication protocols.
7
Content available remote Blind-enT : an approach to support orientation and navigation for blind people
EN
The claim is that blind persons can perceive objects like door, pillar, ditch, elevator, passage, room, hall, building, street, etc., having only mobile cellular phones. The primary goal of all positioning systems is to determine the user’s position as precisely as possible, whereas the main purpose of our project is to provide a blind person with the ability to locate an object and then to perceive it by getting to know its attributes. This permits area familiarization and route planning. Object position may be one of the attributes. Once a blind person identifies an object (by being close to it), she/he can get to know her/his position from the object attributes. It is interesting that the position is not so important also for sighted persons; the position is usually relative and can be derived from perceiving orientation points (e.g., interesting objects) that have already been remembered. The crucial assumption of our project is that objects can be located (identified) using IrDA connectivity. This means that in order to be located an object must have an infrared transceiver (standard IrDA controller) that transmits data (to a mobile) containing the object’s identifier and the azimuth of the infrared message beam and, if it is necessary the current values of some of its attributes. Given the object’s identifier the complete object description can be downloaded from a local or global repository via Bluetooth, or/and GPRS connectivity of a mobile. It is important to note that, unlike Talking Signs, the description is not in a voice format. It is expressed in terms of generic attributes and types so that it can be processed automatically. Only the result of such processing is delivered to a blind user as voice.
PL
Osoba niewidoma może postrzegać obiekty, takie jak drzwi, słupy, windę, przejście, pokój, budynek, ulicę, itd. dysponując jedynie telefonem komórkowym w swojej ręce. Najważniejszym zadaniem systemu pozycyjnego jest określenie położenia użytkownika z największą możliwą precyzją, podczas gdy głównym celem naszego projektu jest zapewnienie osobie niewidomej zdolności do zlokalizowania obiektu, a następnie poznania go poprzez wartości jego atrybutów. Pozwala to na zapoznanie się z otoczeniem i planowanie trasy. Pozycja obiektu może być jednym z jej atrybutów. W momencie, gdy osoba niewidoma zidentyfikuje obiekt (przez zbliżenie się do niego), wówczas będzie w stanie poznać swoją pozycję poprzez wartość odpowiedniego atrybutu. Interesującym faktem jest to, że pozycja nie jest tak istotna również dla osób widzących, gdyż jest ona najczęściej względna; może być określona na podstawie odniesienia do punków orientacyjnych (interesujących miejsc), których położenie jest już znane. Podstawowym założeniem naszego projektu jest to, że obiekty mogą być lokalizowane (identyfikowane) przy użyciu technologii IrDA. Oznacza to, że, aby obiekt mógł być zlokalizowany musi posiadać nadajnik podczerwieni, który będzie transmitował identyfikator obiektu, azymut wiązki podczerwieni i, jeśli to będzie konieczne, aktualne wartości atrybutów dynamicznych, zmieniających się w czasie. Znając identyfikator obiektu, użytkownik będzie w stanie pobrać kompletny opis obiektu z lokalnego lub globalnego repozytorium. Należy zaznaczyć, że w przeciwieństwie do systemu Talking Signs [1], opis nie jest w formacie dźwiękowym. Jest wyrażony w języku, na który składają się definicje typów, atrybutów i obiektów. Takie podejście czyni możliwym i łatwym automatycznie analizowane opisów danych obiektów. Jedynie rezultat ich przetwarzania jest przekazywany osobie niewidomej w postaci głosu.
8
Content available remote Blind-enT : Making Objects Visible for Blind People
EN
The claim is that blind persons can perceive objects like door, pillar, ditch, elevator, passage, room, hali, building, Street, etc,, haying only mobile cellular phones. The primary goal of all positioning systems is to determine the user's position as precisely as possible, whereas the main purpose of our project is to provide a blind person with the ability to locate an object and then to perceive it by getting to know its attributes. This permits area familiarization and route planning. Object position may be one of the attributes. Once a blind person identifies an object (by being close to it), she/he can get to know her/his position from the object attributes. It is interesting that the position is not so important also for sighted persons; the position is usually relative and can be derived from perceiving orientation points (e.g., interesting objects) that have already been remembered. The crucial assumption of our project is that objects can be located (identified) using IrDA connectivity. This means that in order to be located an object must have an infrared transceiver (standard IrDA controller) that transmits data (to a mobile) containing the object's identifier and the azimuth of the infrared message beam and, if it is necessary the current values of some of its attributes. Given the object's identifier the complete object description can be downloaded from a local or global repository via Bluetooth, or/and GPRS connectivity of a mobile. It is important to notę that, unlike Talking Signs, the description is not in a voice format. It is expressed in terms of generic attributes and types so that it can be processed automatically. Only the result of such processing is delivered to a blind user as voice.
PL
Osoba niewidoma może postrzegać obiekty takie jak drzwi, słupy, windę, przejście, pokój, budynek, ulicę, itd. dysponując jedynie telefonem komórkowym w swojej ręce. Najważniejszym zadaniem systemu pozycyjnego jest określenie położenia użytkownika z największą możliwą precyzją, podczas, gdy głównym celem naszego projektu jest zapewnienie osobie niewidomej zdolności do zlokalizowania obiektu, a następnie poznania go poprzez wartości jego atrybutów. Pozwala to na zapoznanie się z otoczeniem i planowanie trasy. Pozycja obiektu może być jednym z jej atrybutów. W momencie, gdy osoba niewidoma zidentyfikuje obiekt (przez zbliżenie się do niego), wówczas będzie w stanie poznać swoją pozycję poprzez wartość odpowiedniego atrybutu. Interesującym faktem jest to, że pozycja nie jest tak istotna również dla osób widzących, gdyż jest ona najczęściej względna; może być określona na podstawie odniesienia do punków orientacyjnych (interesujących miejsc), których położenie jest już znane. Podstawowym założeniem naszego projektu jest to, że obiekty mogą być lokalizowane (identyfikowane) przy użyciu technologii IrDA. Oznacza to, że, aby obiekt mógł być zlokalizowany musi posiadać nadajnik podczerwieni, który transmitował będzie identyfikator obiektu, azymut wiązki podczerwieni i, jeśli to będzie konieczne, aktualne wartości atrybutów dynamicznych, zmieniających się w czasie. Znając identyfikator obiektu użytkownik będzie w stanie pobrać kompletny opis obiektu z lokalnego lub globalnego repozytorium. Należy zaznaczyć, że w przeciwieństwie do systemu Talking Signs [1], opis nie jest w formacie dźwiękowym. Jest wyrażony w języku, na który składają się definicje typów, atrybutów i obiektów. Takie podejście czyni możliwym i łatwym automatyczne analizowane opisów danych obiektów. Wyłącznie rezultat ich przetwarzania jest przekazywany osobie niewidomej w postaci głosu.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.