Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 18

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  rozpoznawanie gestów
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Rozpoznawanie gestów statycznych ręki za pomocą rękawicy sensorowej
PL
W niniejszej pracy opisano rękawicę sensorową, umożliwiającą rozpoznawanie wybranych gestów ręki. W urządzeniu zastosowano 10 rezystancyjnych czujników ugięcia, zamocowanych za pomocą materiałowych kieszeni do rękawicy. Układ czujników tworzy dwa rzędy, jeden na wysokości stawów śródręczno-paliczkowych oraz drugi, na wysokości stawów międzypaliczkowych. Wykonany prototyp przetestowano na grupie trzech osób wykonujących 18 statycznych gestów polskiego języka migowego. Otrzymane dane sprawdzono pod kątem możliwości ich automatycznej klasyfikacji za pomocą trzech wybranych klasyfikatorów: k-najbliższych sąsiadów, naiwnego klasyfikatora bayesowskiego oraz drzewa decyzyjnego. Klasyfikacje przeprowadzano dla trójwymiarowego zbioru danych otrzymanych z czujników umiejscowionych nad stawami międzypaliczkowymi palców: środkowego, wskazującego i kciuka oraz dla dziesięciowymiarowego zbioru danych otrzymanych ze wszystkich czujników. Najlepsze wyniki klasyfikacji znaków dla obu zbiorów uzyskano za pomocą naiwnego klasyfikatora bayesowskiego, którego skuteczność wyniosła 66,66%.
EN
This work describes a sensor glove that allows real-time recognition of the position of the fingers. The device uses 10 resistive flex sensors fastened with material glove pockets. The sensor system consists of two rows, one at the height of the metacarpophalangeal joints and the second at the height of the interphalangeal joints. The prototype was tested on a group of three people performing 18 static gestures of Polish sign language. The data obtained was checked for the possibility of their automatic classification using three selected classifiers: k-nearest neighbours, naive Bayesian classifier and decision tree. Classifications were carried out for a simplified three-dimensional dataset obtained from sensors located above interphalangeal joints of the middle, index and thumb fingers and for the ten-dimensional dataset obtained from all sensors. The best character classification results for both sets were obtained for the naive Bayesian classifier, with a maximum recognition rate of 66.66%.
PL
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania, ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także rezultaty testów tych algorytmów.
EN
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers.
PL
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania, ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także rezultaty testów tych algorytmów.
EN
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers.
EN
This paper presents a comparison of the authors’ presence detection and gesture interpretation algorithm for a RGB camera with a commercial algorithm for a RGB-D camera for smart home control. The author’s presence detection algorithm is based on MOG2 algorithm employed for background learning and mathematical conversions for identification of position of an arm. The latter algorithm employs a depth camera to take pictures at which a human skeleton is overlaid and thus position of an arm in three-dimensional space is identified. The author’s algorithm enables to achieve better efficacy of gesture recognition (statistically of around 20%) employing less hardware resources at the same time. This makes it perfect for smart home automation control applications especially for people with disabilities.
PL
Artykuł prezentuje porównanie autorskiego algorytmu wykrywania gestu dla kamery RGB z algorytmem komercyjnym dla kamery RGB–D, na potrzeby sterowania inteligentnym budynkiem. Autorski algorytm oparty jest na algorytmie MOG2, wykorzystywanym do uczenia tła oraz w matematycznych przekształceniach w celu wykrycia pozycji ramienia. Na tej podstawie określany jest wektor wyznaczane przez rękę wskazującą na dany obiekt. Wskazywany element jest porównywany z bazą obiektów, następnie wykonywana jest związana z nim interakcja. Porównywany był on z komercyjnym algorytmem wykorzystującym kamerę głębi, która nakładała szkielet człowieka na obraz i pozycjonowała ramię w przestrzeni trójwymiarowej. Opracowany algorytm pozwala na osiągnięcie wymiernie lepszych wyników w skuteczności rozpoznawania (o ok. 20% w ujęciu statystycznym) w stosunku do komercyjnego algorytmu, przy mniejszym wykorzystaniu zasobów sprzętowych. Pozwala to na zastosowanie algorytmu w istniejących oraz nowo powstałych budynkach mieszkalnych, wykorzystując do jego implementacji mikrokomputery.
PL
Celem badań opisanych w niniejszym komunikacie jest wykorzystanie specjalnego interfejsu dla osoby niewidomej umożliwiającego sterowanie menu urządzenia nawigacyjnego za pomocą ruchów głowy. Zastosowano czujniki inercyjne wbudowane w układ stereowizyjny umieszczony na głowie użytkownika systemu. Dla 2-sekundowych okien czasowych rejestrowanych sygnałów wyliczono parametry statystyczne takie jak: średnie, minimum, maksimum, odchylenie standardowe, kurtoza oraz współczynniki korelacji dla sygnałów pochodzących z trój-osiowego akcelerometru i trój-osiowego żyroskopu. Dla tak przygotowanych danych treningowych zbadano skuteczność działania czterech różnych klasyfikatorów do rozpoznawania różnych ruchów głowy służących do sterowania interfejsem. Najlepsze wyniki uzyskano dla tzw. lasu losowego, którego skuteczność dla zbioru sygnałów testowych wyniosła 98,89%. Prawidłowe rozpoznawanie ruchów głowy umożliwi osobie niewidomej komunikowanie się z urządzeniem mobilnym i zarządzanie aplikacjami za pomocą ruchów głowy.
EN
The purpose of the study described in this communication is to apply a special interface for the blind person to control the menu of the navigation device using head movements. Inertial sensors built into the stereovision system positioned on the user's head are used. For two-second time windows of the recorded signals, statistical parameters such as: mean, minimum, maximum, standard deviation, kurtosis, and correlation coefficients for signals from a three-axis accelerometer and a three-axis gyroscope were calculated. For such training data, the effectiveness of the four different classifiers was assessed to distinguish different head movements. The best results were obtained for the so-called random forest whose efficiency for the test set signals achieved 98.89%. Proper recognition of head movements will allow the blind person to communicate with the mobile interface and control applications by means of head movements.
EN
This article describes experiments which were conducted with two groups of people: healthy and with cerebral palsy. The purpose of the experiments was to verify two hypothesis: 1) that people with cerebral palsy can interact with computer using their natural gestures, 2) that games for tablets can be a research tool in experiments with young disabled people. Two games, which require the user to make simple gestures to accomplish given tasks, were designed and implemented on a tablet device with a built-in camera. Because of the camera limitations, the tracking process employs blue markers. By moving hand with a blue marker it was possible to perform navigation tasks in both games. In the first game the user had to gather, in 30 seconds, as many objects as possible. The objects were placed on the screen in a grid pattern. In the second game the user had to catch one object 20 times. The position of the object changed after each catch. Results obtained by healthy people were considered as a reference. However there are significant differences between measured parameters in both groups, all persons - healthy and with cerebral palsy - were able to accomplish the tasks by using simple gestures. Games for tablets turned out to be a very attractive research tool from the perspective of young, disabled users. They participated in measurement sessions much more willingly than in experiments without games.
EN
The article concerns controlling of a 3-axles manipulator by hand movement, recognized by visual system. In the investigations the Kinect sensor was used, which enabled the acquiring of 2D hand images with depth parameter. The OpenCV library was used for recognition of hand position in a real-time computer based control system. The control program was written in C++ language, which allows the processing of 15 frames per second. The proposed control system enabled to operate the manipulator with the same frequency.
PL
Artykuł skupia się na sterowaniu 3 osiowego manipulatora wykorzystując obraz głębi pozyskany z sensora Kinect oraz bibliotekę OpenCV, przeznaczoną głównie do obróbki obrazu w czasie rzeczywistym. Opracowany program został napisany w C++ i pozwala na operowanie manipulatorem z prędkością 15 FPS. Komunikacja ze sterownikiem manipulatora została zapewnioną za pomocą kabla USB.
8
EN
In this work, author describes the continuation of his researches about gesture recognition. The previous varaint of the solution was using plain data and was dependent of the performance velocity. In the described researches author made it speed and position invariant by resolving problem of too long or too short gestures – in a previous solution the user had to decide about gesture duration time before performing, now it is not necessary. He also proposed another data representations, using features computed of recorded data. Previous representation, which assumed storing relative positions between samples, was replaced by transforming each gesture to the axis origin and normalizing. He also tried to connect these two representations – plain data and features – into a single one. All of these new data representations were tested using the SVM classifier, which was judged to be the best for the given problem in the previous work. Each of them was tested using one of four popular SVM kernel functions: linear, polynomial, sigmoid and radial basis function (RBF). All achieved results are presented and compared.
PL
W niniejszym artykule autor opisał kontynuację swoich badań dotyczących rozpoznawania gestów. Ulepszył on stworzone przez siebie rozwiązanie w taki sposób, aby nagrywanie i rozpoznawanie gestów było niezależne od szybkości ich wykonywania, a co za tym idzie — ich zróżnicowanej długości. Zaproponował on także inne reprezentacje danych, za pomocą których wyrażany jest stworzony zbiór gestów. Wcześniejsze rozwiązanie, opierające się na przechowywaniu relatywnego położenia dłoni w stosunku do poprzedniej zarejestrowanej próbki (poprzedniego położenia), zastąpione zostało sprowadzeniem gestu do początku układu współrzędnych i zastąpieniem wartości relatywnych absolutnymi, a następnie ich normalizację Z tak przygotowanego zbioru gestów obliczone zostały cechy stanowiące drugą zaproponowaną reprezentację danych. Trzecia reprezentacja stanowi połączenie dwóch poprzednich: zawiera jednocześnie bezpośrednie wartości wyrażające ruch dłoni, jak i obliczone na podstawie jego cechy. Wszystkie trzy reprezentacje zostały przetestowane przy pomocy klasyfikatora, który okazał się najlepszy dla zadanego problemu podczas przeprowadzania wcześniejszych badań: SVM. Porównano, jak z zadanym problemem radzą sobie cztery popularne funkcje jądra: liniowa, wielomianowa, sigmoidalna i radialna. Otrzymane wyniki zostały przedstawione, porównane i omówione.
9
Content available remote Image recognition usage to control computer application
EN
The article deals with the possibility of control of selected applications running in Windows using images recorded in real time by a computer webcam. These images are simple tags, the more complicated the actual artwork hand and move your hand-gestures. It is possible to use two techniques. The first is placed on the hand of coloured markers. The second technique allows a more natural control - no markup. The article describes the basic problems affecting the image acquisitions. In the next part focuses on graphics libraries enable image recognition in real time. The fundamental errors of those libraries that hinder recognition were analysed and a number of solutions to correct these errors were proposed.
PL
W artykule zaprezentowano możliwość sterowania aplikacjami działającymi pod kontrolą systemu operacyjnego Windows, za pomocą obrazów zarejestrowanych przez kamerę internetowa. Obrazami tymi mogą być zarówno proste znaczniki, jak również znacznie bardziej skomplikowane obrazy ruchome czy też gesty dłoni. Zaprezentowano dwie techniki. Pierwsza z nich oparta jest o kolorowe znaczniki umieszczone na dłoni. Drugi sposób to technika bez markerów. Jest ona znacznie bardziej naturalna od pierwszej. W artykule wspomniano także o podstawowych problemach związanych z pozyskiwaniem obrazu w szczególności w kontekście późniejszego rozpoznawania. Przeanalizowano także elementarne błędy zawarte w bibliotekach utrudniające automatyczne rozpoznawanie obrazów. Zaproponowano kilka rozwiązań poprawiających te błędy.
10
Content available remote Automatic Classification of Polish Sign Language Words
EN
In the article we present the approach to automatic recognition of hand gestures using eGlove device. We present the research results of the system for detection and classification of static and dynamic words of Polish language. The results indicate the usage of eGlove allows to gain good recognition quality that additionally can be improved using additional data sources such as RGB cameras.
PL
W artykule przedstawiono podejście do automatycznego rozpoznawania gestów migowych w oparciu o dedykowane do tego zadania urządzenie pod nazwą eGlove. Przeprowadzono analizę podejść do klasyfikacji gestów statycznych i dynamicznych. Uzyskane rezultaty wskazują, że opracowane urządzenie może zostać wykorzystane do analizy gestów języka mówionego, jednakże dla gestów dynamicznych ograniczeniem jest rozmiar słownika.
EN
For the detection of gestures there can be used low cost circuits that simply receive reflected infrared LED-light from objects moving within the sensitive area. But the interference of ambient light must be reduced significantly for practical applications. We present a design with a compensation LED in a control loop giving the possibility of eliminating the ambient light. This functional principle is realized in a single chip and we present some good results gained with this chip.
PL
Rozpoznawanie ludzkich gestów w celu wykorzystania ich do sterowania urządzeniami elektronicznymi jest tematem aktualnym o szerokim obszarze zastosowań obejmującym między innymi urządzenia elektroniki użytkowej, technikę motoryzacyjną i robotykę. W wielu zastosowaniach do rozpoznawania gestów mogą być stosowane stosunkowo proste i tanie systemy optoelektroniczne wykorzystujące odbite od obiektów promieniowanie podczerwone emitowane przez diody LED. Jednym z istotnych czynników zakłócających poprawną pracę takich systemów jest promieniowanie świetlne pochodzące od otoczenia. W pracy przedstawiono projekt układu z zastosowanie kompensacyjnej diody LED eliminujący skutecznie wpływ zakłócającego działania otaczającego światła. Przedstawioną koncepcję eliminacji wpływu otaczającego światła zilustrowano praktycznym przykładem bazującym na wykorzystaniu komercyjnego specjalizowanego układu scalonego. Przedstawiono analizę działania zaproponowanego rozwiązania oraz wstępne wyniki badań modelu fizycznego.
PL
W pracy przedstawiono pilotażowe prace projektowe w warstwie sprzętowej i programowej oraz otrzymane na ich podstawie wyniki badań funkcjonalności, ograniczeń i parametrów technicznych nowatorskich zastosowań bezkontaktowych interfejsów użytkownika w dwóch polach aplikacyjnych: 1. rozpoznawania gestów np. w systemach przywoławczych, dla sterownika Kinect 2. telemanipulacji lokalnej i na duże odległości na przykładzie sterowania systemem telemanipulatora Robin Heart w warunkach sterylnego laboratorium lub sali operacyjnej, dla kontrolera Leap Motion™. Na uwagę zasługuje innowacyjna integracja precyzyjnego kontrolera Leap Motion™ z systemem sterowania rodziny telemanipulatorów Robin Heart, co pozwoliło na przeprowadzenie testów zadawania pozycji kartezjańskiej XYZ manipulatorowi toru wizyjnego RH Vision. Równolegle przeprowadzono analizę możliwości i przydatności do zadań biomedycznych alternatywnego rozwiązania bezdotykowego systemu MMI – urządzenia Kinect™. Wyznaczono warunki poprawnej pracy urządzenia w polu rozpoznawania gestów, które może z powodzeniem już w niedługim czasie wkroczyć do systemów przywoławczych, jako nowy bardziej wygodny i funkcjonalny standard np. na salach obłożnie chorych. Dla obydwu rozwiązań wyznaczono czasy opóźnień wprowadzanych przez sterowniki podczas akwizycji, przetwarzania i transmisji sygnałów.
EN
In this paper, authors propose a solution to track gestures of hands in 3-dimensional space that can be inserted into a CAVE3D environment. Idea of gestures recognition system is described and the results of research made on a recorded gesture data. In this study three selected classifiers to resolve this problem have been tested and results compared.
PL
Artykuł zawiera wyniki 3 grup algorytmów stosowanych do rozpoznawania gestów wykonywanych dłońmi na podstawie pojedynczych obrazów. Algorytmy te opierają się na: dopasowaniu szablonów masek binarnych obrazów, metodach opartych na konturach dłoni w obrazie oraz detekcji reprezentantów punktów reprezentujących krzywizny konturów dłoni. Wyniki uzyskano na podstawie 3 baz danych, w których obrazy zostały podzielone na bazę testową i referencyjną. Jedna baza referencyjna została wygenerowana na podstawie modelu 3D.
EN
This Paper include results of 3 groups of algorithms used to hand pose gesture recognition based on single images. Those algorithms base on: Template Matching of binary masks from images, methods based on hand contours in image and the Points representing points from curvatures detection. Results were obtained with 3 databases, which images were split for test and reference database. One of reference databases was generated from the 3D model.
PL
Rozpoznawanie gestów za pomocą czujników inercyjnych może być alternatywą dla standardowych interfejsów człowiek-komputer. Do śledzenia gestów wykorzystano czujnik zawierający trójosiowy akcelerometr, magnetometr i żyroskop. W dotychczasowych badaniach bazowano na sygnałach przyspieszenia. Autorzy zaproponowali i porównali rozwiązania wykorzystujące zarówno analizę przyspieszenia, jak i orientacji w przestrzeni, a także umożliwili badanym osobom wykonywanie gestów w sposób naturalny. Wyniki pokazują, że za pomocą algorytmu DTW (Dynamic Time Warping) możliwa jest klasyfikacja indywidualna dla danej osoby (ze skutecznością 92%), a także klasyfikacja uogólniona - na podstawie uniwersalnego wzorca (ze skutecznością 83%).
EN
Gesture recognition may be applied to control of computer applica-tions and electronic devices as an alternative to standard human-machine interfaces. This paper reports a method of gesture classification based on analysis of data from 9DOF inertial sensor - NEC-TOKIN, Motion Sensor MDP-A3U9S (Fig.1). Nine volunteers were asked to perform 10 different gestures (shown in Fig.2) in a natural way with a sensor attached to their hand. The gesture data base consisting of 2160 files with triaxial acceleration and orientation signals was created. In the first step the data were divided into training and testing sets. The designed system uses the Dynamic Time Warping (DTW) algorithm to calculate similarity of signals (formulas (1)-(3)). Using this method the authors chose representative signals to indi-vidual and generalized exemplars data base from the training set. The DTW algorithm was also used in the classification process. Different recognition approaches were tested basing on acceleration-only, orientation-only and acceleration-orientation signals. The results listed in Tab.4 show that the best recognition efficiency of 92% was obtained in the individual recognition (only one person gestures taken into account) for modified exemplars data base. The modification proposed by the authors (Section 3) improved the recognition rate by 10 percentage points. The efficiency rate of 83% (Tab. 5) was reached in the generalized case. The next step of im-proving the designed recognition system is application of an inertial system with a bluetooth module and real-time gesture classification.
EN
In this paper we present a virtual hand tool for generating a database of artificial hand images for gesture recognition purposes. Our solution is based on 3D hand model with 23 degrees of freedom and skeleton animation. For every real hand image, the most similar artificial image is retrieved from the database, which allows hand pose be estimated. The initial results presented in the paper are encouraging and justify the further development of this method.
PL
Celem prac przedstawionych w niniejszym artykule było opracowanie trójwymiarowego modelu ludzkiej dłoni na potrzeby rozpoznawania gestów. Model ten, posiadający 23 stopnie swobody i oparty na animacji szkieletowej, umożliwia generację bazy danych obrazów, pozwalającej na estymację parametrów ułożenia dłoni dla zadanego rzeczywistego obrazu. Uzyskane wyniki wstępne są satysfakcjonujące i wskazują na możliwość wykorzystania stworzonego modelu do rzeczywistych zastosowań.
EN
In the article the problem of visual gesture recognition for presentation steering is presented. Based on camera image analysis the idea of steering is proposed. Presented system operates without a specialized controller and bases on visual gestures of the presenter. Conducted experiments with users demonstrated high usability of the system.
PL
W artykule przedstawiono system sterowania komputerem za pomocą gestów rąk. W pierwszej części dokonano przeglądu wybranych metod rozpoznawania gestów. Następnie zaprezentowano część sprzętową systemu oraz metodykę sterowania. Opisano również architekturę oprogramowania wraz z metodami i algorytmami zastosowanymi przy rozpoznawaniu gestów rąk. W dalszej części pokazano zestaw prostych gestów oraz bazujących na nich gestów złożonych, rozpoznawanych przez system.
EN
In the paper a system for controlling computer applications by hand gestures is presented. First, selected methods used for gesture recognition are described. The system hardware and a way of controlling a computer by gestures are described. The architecture of the software along with hand gesture recognition methods and algorithms used are presented. Examples of basic and complex gestures recognized by the system are given.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.