Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 3

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  sterowanie gestem
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
This paper presents a comparison of the authors’ presence detection and gesture interpretation algorithm for a RGB camera with a commercial algorithm for a RGB-D camera for smart home control. The author’s presence detection algorithm is based on MOG2 algorithm employed for background learning and mathematical conversions for identification of position of an arm. The latter algorithm employs a depth camera to take pictures at which a human skeleton is overlaid and thus position of an arm in three-dimensional space is identified. The author’s algorithm enables to achieve better efficacy of gesture recognition (statistically of around 20%) employing less hardware resources at the same time. This makes it perfect for smart home automation control applications especially for people with disabilities.
PL
Artykuł prezentuje porównanie autorskiego algorytmu wykrywania gestu dla kamery RGB z algorytmem komercyjnym dla kamery RGB–D, na potrzeby sterowania inteligentnym budynkiem. Autorski algorytm oparty jest na algorytmie MOG2, wykorzystywanym do uczenia tła oraz w matematycznych przekształceniach w celu wykrycia pozycji ramienia. Na tej podstawie określany jest wektor wyznaczane przez rękę wskazującą na dany obiekt. Wskazywany element jest porównywany z bazą obiektów, następnie wykonywana jest związana z nim interakcja. Porównywany był on z komercyjnym algorytmem wykorzystującym kamerę głębi, która nakładała szkielet człowieka na obraz i pozycjonowała ramię w przestrzeni trójwymiarowej. Opracowany algorytm pozwala na osiągnięcie wymiernie lepszych wyników w skuteczności rozpoznawania (o ok. 20% w ujęciu statystycznym) w stosunku do komercyjnego algorytmu, przy mniejszym wykorzystaniu zasobów sprzętowych. Pozwala to na zastosowanie algorytmu w istniejących oraz nowo powstałych budynkach mieszkalnych, wykorzystując do jego implementacji mikrokomputery.
PL
Wstęp i cel: Celem realizowanego projektu jest opracowanie systemu wspomagającego funkcjonowanie osób starszych i niepełnosprawnych cierpiących z powodu dysfunkcji ruchowych. W artykule opisano pierwszy etap projektu, w którym system zapewnia możliwość wspomagania dwóch czynności: zaświecanie i gaszenie światła oraz zasłanianie i odsłanianie rolet okiennych. Do każdej z tych czynności zastosowano sterowanie gestem. Materiał i metody: W pracy wykorzystano platformę programistyczną Arduino LEONARDO, sensor ruchu Microsoft Kinect, komputer klasy PC oraz elementy wykonawcze systemu takie jak przekaźnik, serwomechanizm czy buzzer. W artykule omówiono sposób działania systemu oraz oprogramowanie na płytkę Arduino odpowiedzialną za sterowanie elementami wykonawczymi i odczyt informacji z czujników. Dodatkowo przedstawione zostały najważniejsze elementy oprogramowania umożliwiające komunikacje pomiędzy sensorem Kinect a płytką Arduino. Wyniki: Wynikiem pracy jest w pełni funkcjonalny prototyp/makieta systemu. Wniosek: Opisany system jest nowatorski z pozytywnymi opiniami przyszłych użytkowników.
EN
Introduction and aim: The article presents the issues of supporting system for elderly and disabled people. The article describes the first phase of the project, in which the system provides the ability to support two steps. For each of these activities is used to control gesture. Material and methods: The project has been designed and implemented based on software platform Arduino Leonardo, motion sensor Microsoft Kinect, PC computer system and actuators such as relays, servo or buzzer. In addition, have been presented the main elements of hardware / software system enables communication between the sensor Kinect and Arduino plate. Results: The result of work is fully functional prototype assist device. Conclusion: The method described is innovative with positive test and opinion of future users.
3
Content available remote Kinect sensor implementation in FANUC robot manipulation
EN
W artykule przedstawiono system sterowana robotem przemysłowym FANUC S-420F o sześciu stopniach swobody. Jest on oparty na śledzeniu gestów operatora i ich rozpoznawaniu za pomocą kontrolera ruchu Microsoft Kinect. Dzięki wykorzystaniu ręki operatora jako kontrolera uzyskano naturalny, intuicyjny sposób sterowania robotem, naśladujący codzienną czynność przynoszenia przedmiotów. Do realizacji systemu wykorzystano środowisko Matlab/Simulink z pakietem Kinect for Windows Runtime oraz biblioteki Kinect SDK & Developer Toolkit. Na potrzeby badań zaproponowanego systemu opracowano zestaw podstawowych gestów, które pozwalają na sterowanie robotem. Testy obejmowały wpływ na system m.in. takich parametrów, jak oświetlenie i szybkość wykonywania gestów przez operatora. W artykule przedstawiono uzyskane wyniki oraz omówiono zalety zaproponowanego systemu sterowania i potencjalne problemy.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.