Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 7

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  gesture control
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
This paper presents a comparison of the authors’ presence detection and gesture interpretation algorithm for a RGB camera with a commercial algorithm for a RGB-D camera for smart home control. The author’s presence detection algorithm is based on MOG2 algorithm employed for background learning and mathematical conversions for identification of position of an arm. The latter algorithm employs a depth camera to take pictures at which a human skeleton is overlaid and thus position of an arm in three-dimensional space is identified. The author’s algorithm enables to achieve better efficacy of gesture recognition (statistically of around 20%) employing less hardware resources at the same time. This makes it perfect for smart home automation control applications especially for people with disabilities.
PL
Artykuł prezentuje porównanie autorskiego algorytmu wykrywania gestu dla kamery RGB z algorytmem komercyjnym dla kamery RGB–D, na potrzeby sterowania inteligentnym budynkiem. Autorski algorytm oparty jest na algorytmie MOG2, wykorzystywanym do uczenia tła oraz w matematycznych przekształceniach w celu wykrycia pozycji ramienia. Na tej podstawie określany jest wektor wyznaczane przez rękę wskazującą na dany obiekt. Wskazywany element jest porównywany z bazą obiektów, następnie wykonywana jest związana z nim interakcja. Porównywany był on z komercyjnym algorytmem wykorzystującym kamerę głębi, która nakładała szkielet człowieka na obraz i pozycjonowała ramię w przestrzeni trójwymiarowej. Opracowany algorytm pozwala na osiągnięcie wymiernie lepszych wyników w skuteczności rozpoznawania (o ok. 20% w ujęciu statystycznym) w stosunku do komercyjnego algorytmu, przy mniejszym wykorzystaniu zasobów sprzętowych. Pozwala to na zastosowanie algorytmu w istniejących oraz nowo powstałych budynkach mieszkalnych, wykorzystując do jego implementacji mikrokomputery.
PL
W niniejszym artykule opisano projekt, w którym przedstawiona została metoda bezdotykowego sterowania robota z zastosowaniem czujnika ruchu Kinect. Obiektem sterowanym jest jeżdżący robot składający się z: podwozia, silnika oraz modułu do komunikacji. Sterowanie odbywa się za pomocą sensora Microsoft Kinect wraz z odpowiednią analizą gestów sterujących. Przedstawiono algorytm sterowania oraz propozycje rozwiązania problemów wynikających z charakterystyki metody sterowania. Poruszono kwestię dopasowania algorytmu do budowy fizycznej osoby sterującej, zwiększenie dokładności sterowania w kluczowych zakresach oraz problemu śledzenia wielu osób znajdujących się przed czujnikiem.
EN
This paper describes the project that demonstrates the use of the Kinect motion sensor to control the robot using hand gestures. The controlled object is robot comprising of: the chassis, electronic components, engine and communication module. The control is done using the Microsoft Kinect sensor and proper analysis of controls gesture.
3
Content available remote Kinect sensor implementation in FANUC robot manipulation
100%
EN
W artykule przedstawiono system sterowana robotem przemysłowym FANUC S-420F o sześciu stopniach swobody. Jest on oparty na śledzeniu gestów operatora i ich rozpoznawaniu za pomocą kontrolera ruchu Microsoft Kinect. Dzięki wykorzystaniu ręki operatora jako kontrolera uzyskano naturalny, intuicyjny sposób sterowania robotem, naśladujący codzienną czynność przynoszenia przedmiotów. Do realizacji systemu wykorzystano środowisko Matlab/Simulink z pakietem Kinect for Windows Runtime oraz biblioteki Kinect SDK & Developer Toolkit. Na potrzeby badań zaproponowanego systemu opracowano zestaw podstawowych gestów, które pozwalają na sterowanie robotem. Testy obejmowały wpływ na system m.in. takich parametrów, jak oświetlenie i szybkość wykonywania gestów przez operatora. W artykule przedstawiono uzyskane wyniki oraz omówiono zalety zaproponowanego systemu sterowania i potencjalne problemy.
EN
Presented project integrates seamlessly modern device control methods into one, solid solution. The Project is in touch-less control algorithm to the robotics, considered as a technology sampler for feature industrial usage. It implements gesture and voice recognition based solution to control the mobile Tribot robot driving over flat, two dimensional surface. It integrates Microsoft Kinect sensor, Lego Mindstorms NXT robot and a PC computer all together. It also provides voice con-trolled calibration of the human to machine interface.
PL
W dokumencie opisano projekt, w którym zintegrowano nowoczesne metody sterowania bezdotykowego robotem mobilnym przy użyciu gestów oraz rozpoznawania głosu. Przedmiotem sterowania jest robot zbudowany na platformie Lego Mindstorms NXT, poruszający się po dwuwymiarowej przestrzeni. Rozwiązanie integruje sensor Microsoft Kinect do sterowania robotem oraz metodę kalibracji położenia użytkownika za pomocą rozpoznawania komend głosowych.
EN
This paper presents a concept of a vision system which can simplify the way in which some basic functions of CNC machines can be controlled. The proposed system enables the operator to control a machine tool using gestures. The developed solution is based on Microsoft Kinect for a Windows v2 sensor with a time-offlight camera. A gesture recognition module was implemented in the VC 760 milling machine with an open control system (O.C.E.A.N.). To conduct tests of the proposed interface, a set of gestures used to control a CNC machine was developed. Furthermore, the concept, the structure of the system and the test results are discussed. In summary, the advantages and potential problems of the proposed control system and plans for future development are discussed.
PL
W artykule przedstawiona została koncepcja systemu wizyjnego umożliwiającego kontrolowanie i programowanie obrabiarki CNC za pomocą gestów. Opracowane rozwiązanie ułatwia obsługę obrabiarki CNC poprzez rozpoznawanie gestów wykonywanych przez operatora. Do realizacji sytemu wykorzystany został kontroler ruchu Microsoft Kinect for Windows v2. System rozpoznawania gestów zastosowano w otwartym systemie sterowania obrabiarki VC 760 (O.C.E.A.N.). W ramach badań opracowane zostały zestawy gestów pozwalających na sterowanie obrabiarką CNC. W artykule omówiono koncepcję i budowę systemu oraz wyniki przeprowadzonych testów. W podsumowaniu wskazano zalety oraz potencjalne problemy związane ze strukturą i zastosowaniem systemu, a także zarysowano plany jego dalszego rozwoju.
EN
The paper presents a mobile system dedicated to an industrial manipulator control. For this purpose, an interface was designed to be used for intuitive interaction with a robot, which consists of a measuring scanner for the orientation of the human upper limb, and a glove to measure the deflection of fingers. Basic gestures used for moving the manipulator have been proposed. The paper was based on the previous experience obtained in the implementation of projects which entailed manual programming of CNC machine tools. The system shall be a starting point for the construction of a control interface for other mechanical devices.
PL
W pracy przedstawiono mobilny system do poruszania manipulatorem przemysłowym. W tym celu zaprojektowano interfejs służący do intuicyjnej interakcji z robotem, na który składa się skaner mierzący orientację kończyny górnej oraz rękawicę do mierzenia ugięcia palców dłoni. Zaproponowano podstawowe gesty do poruszania manipulatorem. Pracę oparto na dotychczasowych doświadczeniach zdobytych przy realizacji projektów nad programowaniem manualnym obrabiarek CNC. System stanowi punkt wyjściowy do budowy interfejsu obsługi innych urządzeń mechanicznych.
PL
Wstęp Możliwość korzystania z komputera przez osoby niepełnosprawne jest jednym z trudniejszych problemów interakcji człowiek–komputer, natomiast aktywność zawodowa (zatrudnienie) należy do najważniejszych czynników wpływających na jakość życia, szczególnie osób niepełnosprawnych. Celem pracy było zaproponowanie nowego systemu sterowania komputerem pozwalającego na powrót do pracy osobom, które straciły możliwość standardowej obsługi komputera. Materiał i metody Podstawowym założeniem nowego systemu było zastąpienie standardowej myszy komputerowej urządzeniem, które nie wymaga wykonywania precyzyjnych ruchów ręką i palcami. W pracy skorzystano z kontrolera Microsoft Kinect jako urządzenia rozpoznającego ruchy rąk. Przeprowadzono badania wstępne w celu określenia optymalnych warunków pracy nowego urządzenia i opracowano nowy system składający się z kontrolera Kinect i oprogramowania do niego. Wyniki System został przetestowany z wykorzystaniem standardowej oceny subiektywnej i obiektywnej zgodnie z normą ISO 9241-411:2012. Ogólna ocena nowego systemu wskazuje na akceptację proponowanego rozwiązania przez badanych. Obiektywne testy pokazują, że nowy system – choć jest nieco wolniejszy od standardowego – może skutecznie zastąpić mysz komputerową. Wnioski Nowy system interakcji człowiek–komputer spełnił swoje zadanie dla konkretnej osoby niepełnosprawnej, czyli umożliwił sterowanie komputerem, a tym samym powrót do pracy. Dodatkowo badanie potwierdziło możliwość skutecznego niestandardowego wykorzystania urządzenia Kinect. Med. Pr. 2017;68(1):11–21
EN
Background The possibility of using a computer by a disabled person is one of the difficult problems of the human–computer interaction (HCI), while the professional activity (employment) is one of the most important factors affecting the quality of life, especially for disabled people. The aim of the project has been to propose a new HCI system that would allow for resuming employment for people who have lost the possibility of a standard computer operation. Material and Methods The basic requirement was to replace all functions of a standard mouse without the need of performing precise hand movements and using fingers. The Microsoft’s Kinect motion controller had been selected as a device which would recognize hand movements. Several tests were made in order to create optimal working environment with the new device. The new communication system consisted of the Kinect device and the proper software had been built. Results The proposed system was tested by means of the standard subjective evaluations and objective metrics according to the standard ISO 9241-411:2012. The overall rating of the new HCI system shows the acceptance of the solution. The objective tests show that although the new system is a bit slower, it may effectively replace the computer mouse. Conclusions The new HCI system fulfilled its task for a specific disabled person. This resulted in the ability to return to work. Additionally, the project confirmed the possibility of effective but nonstandard use of the Kinect device. Med Pr 2017;68(1):11–21
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.