Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 9

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  systemy sensoryczne
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W niniejszym referacie przedstawiono metodę wyznaczania kierunku przylotu sygnału ultradźwiękowego. Omówiony został problem niejednoznacznych rozwiązań w przypadku, gdy odbiorniki są oddalone od siebie bardziej niż o pół długości fali emitowanego sygnału. Przedstawiono sposób rozwiązania tego problemu. Opisano również wpływ geometrii rozmieszczenia odbiorników na błąd wyznaczanie współrzędnych wektora kierunku przylotu sygnału. Przedstawiono ponadto wyniki symulacji, które pozwoliły ocenić odporność układu pomiarowego na błędy pomiaru czasu przelotu i oszacować ich górną akceptowalną wartość.
EN
This paper presents a method of determining the direction of ultrasonic signal arrival. The problem of ambiguous solutions in the case when the receivers are more distant from each other than by half the wavelength of the emitted signal is discussed. The method od solving this problem is presented. The influence of the geometry of the arrangement of receivers on the error in determining the coordinates of the signal arrival direction vector was also described. The simulation results are also presented. They allowed to assess the resistance of the measuring system to errors in time of flight measurement and to estimate their upper acceptable limit.
EN
Safety is one of the most critical factors in robotics, especially when robots have to collaborate with people in a shared environment. Testing the physical systems, however, must focus on much more than just software. One of the common steps in robotic system development is the utilization of simulators, which are very good for tasks like navigation or manipulation. Testing vision systems is more challenging, as the simulated data often is far from the real camera readings. In this paper, we show the advantages of using the spherical camera for recording the sequences of test images and a way to integrate those with existing robotic simulator. The presented system also has the possibility to be extended with rendered objects to further improve its usability.
PL
Niniejszy referat prezentuje koncepcję multimodalnej percepcji otoczenia opartą na trzech typach sensorów tj. sonarze ultradźwiękowym, uproszczonej kamerze 3D oraz uproszczonej kamerze termowizyjnej. Podstawowym celem takiego wyboru jest otrzymanie układu sensorycznego, który redukuje ilość informacji podlegającej przetworzeniu. Jednocześnie układ ma dostarczyć lokalnie precyzyjnych danych o otoczeniu. Takie podejście umożliwi realizację nawigacji robota mobilnego, zadania SLAM oraz interakcji z ludźmi. Pod kątem przedstawionych założeń dokonano przeglądu wspominanych typów sensorów oraz metod przetwarzania danych. Całość zamknięto podsumowaniem, w którym wskazano konkretne sensory, które mogą stanowić podstawę proponowanego multimodalnego systemu sensorycznego.
EN
This paper presents the concept of multimodal perception of the environment based on three types of sensors, i.e. ultrasonic sonar, simplified 3D camera and simplified thermal imaging camera. The primary purpose of such a choice is to obtain a sensory system that reduces the amount of necessary information to be processed. However, at the same time, it is to ensure the receipt of locally precise data about the environment. This approach is to enable the implementation of mobile robot navigation, SLAM tasks and interactions with people. With this in mind, the above-mentioned types of sensors and data processing methods were reviewed in this respect. The paper is closed with a summary, which indicates specific sensors that can from the basis of the proposed multimodal sensory system.
PL
W ostatnich latach powstały nowoczesne modele uczenia maszynowego oparte o sieci neuronowe, pozwalające na określenie punktów charakterystycznych oraz pozy ręki. Konkursy takie jak HANDS 2019 pozwoliły określić najlepsze z nich (SOTA), jednak brakuje jednolitego środowiska pozwalającego na porównanie ich do siebie, np. w celu określenia zachowania tych modeli w szczególnych warunkach i dostosowanie sieci do własnych potrzeb. W pracy przedstawiamy krótki przegląd istniejących podejść i zbiorów danych oraz opisujemy działania mające na celu stworzenie standaryzowanego środowiska do uruchamiania modeli regresji punktów charakterystycznych ręki. Opisujemy potencjalne zastosowanie – porównanie modeli do zastosowania ich przy modelowaniu ręki sparaliżowanej w celu opracowania personalizowanego robota miękkiego.
EN
The paper presents a short review of modern models for hand key-point detection based on depth data. We designed a unified containerized system for their comparison and ease of use. We tested the setup and re-evaluated the models’ behaviour on the NYU hand pose dataset. The future goal of the work is to use a model with the best results for hand modelling for a personalized design of rehabilitation devices.
EN
We detect and classify two-person interactions in multiple frames of a video, based on skeleton data. The solution follows the idea of a ”mixture of experts”, but when experts are distributed over a time sequence of video frames. Every expert is trained independently to classify a particular time-indexed snapshot of a visual action, while the overall classification result is a weighted combination of all the expert’s results. The training videos need not any extra labeling effort, as the particular frames are automatically adjusted with relative time indices. In general, the initial skeleton data is extracted from video frames by OpenPose [2] or by other dedicated method. An algorithm for merging-elimination and normalization of image joints is also developed, that improves the quality of skeleton data. During training of the classifiers hyper-parameter optimization technics are employed. The solution is trained and tested on the interaction subset of the well-known NTU-RGB-D dataset [14], [13] - only 2D data are used. Two baseline classifiers, implementing the pose classification experts, are compared - a kernel SVM and neural MLP. Our results show comparable performance with some of the best reported STM- and CNN-based classifiers for this dataset [20]. We conclude that by reducing the noise of skeleton data and using a time-distributed mixture of simple experts, a highly successful lightweight-approach to visual interaction recognition can be achieved.
PL
Rozpoznawanie postur jest potrzebne do analizy czynności wykonywanych przez człowieka, syntezy ruchu robotów humanoidalnych oraz w badaniach nad robotami współpracującymi. Popularne w ostatnich latach tanie, bezprzewodowe czujniki wizyjne RGB-D umożliwiające łatwa˛ rejestracje˛ ruchu człowieka, ułatwiają˛ realizacje˛ tego zadania badawczego. Powszechnie stosowane są, tu konwencjonalne klasyfikatory, które na podstawie zarejestrowanych trajektorii ruchu stawów rozpoznają˛ postury człowieka. Nie sprawdzają, się, one jednak w pełni podczas obserwacji ruchu w płaszczyźnie strzałkowej, gdy pozycje niektórych stawów są, przesłonięte. Celem niniejszej pracy jest opracowanie nowej metody klasyfikacji postur. Opracowana metoda umożliwia rozpoznawanie aktywności z wykorzystaniem konkurencyjnej sieci neuronowej (CNN). Badania zrealizowano w dwu etapach. Pierwszy etap obejmował wstępne przetwarzanie danych, obejmujący filtrowanie i transformacje˛ danych. Drugim etapem było dobranie odpowiedniej sieci klasyfikującej. Zastosowano sieć konkurencyjną z uczeniem nienadzorowanym. Jakość klasyfikacji była testowana w zależności od różnych metryk odległości. Po wyborze satysfakcjonującej metryki dokonano jakościowej i ilościowej oceny uzyskanych wyników. Porównano wyniki klasyfikacji uzyskane przy użyciu rożnych typów sieci neuronowych. W zakończeniu pracy sformułowano szereg wniosków.
EN
Popular in recent years, cheap, wireless RGB-D vision sensors enable easy registration of human movement to facilitate the implementation of this research task. Here, the conventional classifiers are commonly used, which recognize human postures based on the recorded trajectories of joint movement. However, it does not perform well when observing movement in the sagittal plane because the positions of some joints are invisible here. The aim of the work is to develop a method for postures classification leading to the classification of human activities using data recorded by the RGB-D cameras. The method enables the recognition of activity with the use of a competitive neural network (CNN). The research was carried out in two stages. First, data preprocessing was performed, including raw data filtering and transformation to locate the origin of the reference frame in the point in the torso and scaling to obtain a consistent representation of the data. The classification quality was then tested using different variants of the proposed unsupervised variants of competitive neural networks. Various measures of distance have been used here. The results were presented graphically using scatter plots and stick diagrams.
PL
W niniejszym artykule badany jest problem programowania robota przy użyciu języka naturalnego. W Zaproponowanym systemie wykorzystano moduły rozpoznawania głosu, neuronowej detekcji obiektów na scenie, wskaźnika oraz estymacji gestów operatora do implementacji nowego interfejsu człowiek-robot, który pozwala na definiowanie zadanego ruchu robota. Stworzony interfejs integruje wymienione moduły oraz umożliwia programowanie i interakcję z robotem bez konieczności stosowania specjalnie zaprojektowanych interfejsów sprzętowych oraz znajomości wiedzy specjalistycznej. W artykule dokonano analizy efektywności programowania robotów za pomocą zaproponowanych interfejsów oraz porównano do standardowych metod programowania robotów.
EN
In this paper, we propose a system for natural and intuitive interaction with the robot arm. The goal is to program the motion of the robot without the use of specialistic knowledge and training about robots programming. We utilize data from the RGB-D camera to segment the scene and detect objects. We also define the configuration of the operator’s hand and the position of the visual marker to estimate the intentions of the operator and define the actions of the robot. To this end, we utilize trained neural networks and operations on the input point clouds. We also use voice commands to define or trigger the execution of the motion. Finally, we performed a set of experiments to show the properties of the proposed system.
EN
Effective methods of preventing falls significantly improve the quality of life of the Elderly. Nowadays, people focus mainly on the proper provision of the apartment with handrails and fall detection systems once they have occurred. The article presents a system of active detection and classification of the risk of falls in the home space using a service robot equipped with a vision sensor. The fusion of image-based and depth-based processing paths allows for the effective object detection. Hazard classification allows for executing the tasks assigned to the robot while maintaining a high level of user safety.
9
Content available remote Ewolucja architektury systemu percepcji i modelowania otoczenia robota mobilnego
PL
W pracy przedstawia się ewolucję modeli i metodologii wypracowywanych przez inżynierię oprogramowania. Omawiane są różne architektury robota mobilnego, który we współpracy z innymi robotami mobilnymi oraz elementami stacjonarnymi wykonuje zadanie kolektywnej percepcji i modelowania środowiska działania robotów. Prezentowane są także współczesne trendy w rozwoju systemów sensorycznych i inżynierii oprogramowania.
EN
In this paper an evolution of models and methodologies used in software engineering is shown. The different architectures of a mobile robot cooperating with other robots and some stationary devices in a task of collective perception and world modeling are considered. Some trends in computer science and software engineering are also sketched.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.