Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 5

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Kinect sensor
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Automatic gender detection is a process of determining the gender of a human according to the characteristic properties that represent the masculine and feminine attributes of a subject. Automatic gender detection is used in many areas such as customer behaviour analysis, robust security system construction, resource management, human-computer interaction, video games, mobile applications, neuro-marketing etc., in which manual gender detection may be not feasible. In this study, we have developed a fully automatic system that uses the 3D anthropometric measurements of human subjects for gender detection. A Kinect 3D camera was used to recognize the human posture, and body metrics are used as features for classification. To classify the gender, KNN, SVM classifiers and Neural Network were used with the parameters. A unique dataset gathered from 29 female and 31 male (a total of 60 people) participants was used in the experiment and the Leave One Out method was used as the cross-validation approach. The maximum accuracy achieved is 96.77% for SVM with an MLP kernel function.
EN
This paper presents the kinematic analysis of the H20 humanoid mobile robot. The kinematic analysis for the robot arms is essential to achieve accurate grasping and placing tasks for object transportation. The H20 robot has dual arms with 6 revolute joints with 6-DOF. For each arm, the forward kinematics is derived and the closed-form solution for the inverse kinematic problem with different cases of singularities is found. A reverse decoupling mechanism method is used to solve the inverse kinematic problem analytically by viewing the arm kinematic chain in reverse order. The kinematics solution is validated using MATLAB with robotics toolbox. A decision method is used to determine the optimal solution within multiple solutions of inverse kinematic depending on the joints’ limits and minimum joints motion. The workspace analysis of the arm is found and simulated. Finally, a verification process was performed on the real H20 arms by applying blind and vision based labware manipulation strategies to achieve the transportation tasks in real life science laboratories.
PL
Praca porusza problem estymacji transformacji przestrzennej pomiędzy kolejnymi pozycjami robota mobilnego. Transformacja wyznaczana jest na podstawie danych RGB-D uzyskanych z sensora Kinect w kolejnych pozycjach wzdłuż trajektorii ruchu robota. Bardzo duża liczba punktów w przestrzeni otrzymanych z sensora Kinect powoduje, że nie mogą być one przetwarzane w czasie rzeczywistym na większości komputerów pokładowych robotów mobilnych. Dlatego w pracy porównano dwie metody ekstrakcji punktów charakterystycznych (kluczowych) redukujących rozmiar zbioru danych: cechy oparte na detekcji w chmurze punktów 3D oraz cechy oparte na detekcji na dwuwymiarowym obrazie RGB. Metody te porównano pod względem czasu działania, skuteczności ekstrakcji punktów oraz dryftu estymaty pozycji robota na publicznie dostępnych zbiorach danych RGB-D.
EN
This paper addresses the problem of determining the egomotion between consecutive robot poses. The RGB-D Kinect sensor is used, which yields large amount of 3D points. It is impossible to process these data in realtime on most of the mobile robots. Thus, we present two approaches to point feature detection: 3D geometric features obtained from point clouds [9] and photometric 2D features detected in the RGB image [1]. Both methods are compared on publicly available RGB-D datasets [8, 10]. The detection on 2D image is the core of the currently state-of-the-art SLAM systems [3] while 3D features are an invention made especially for data captured by the Kinect-like sensors. First, it is demonstrated that both methods can be a part of a successful visual odometry system. Moreover, it is shown that detection of 2D image features is much faster than 3D, while the description is faster in case of 3D features (Tab. 1.). Performed experiments revealed that 3D geometric features tend to work better in environments of richer geometric structure (Tab. 2.) while method using photometric 2D features can be successfully expanded to additionally use 2D features detected on the depth image.
PL
W artykule przedstawiono system sterowania gestem opartego na czujniku Microsoft Kinect. Omówiono najpopularniejsze środowiska umożliwiające realizację systemu zintegrowanego, wykorzystującego różnorodny sprzęt i oprogramowanie. Przygotowano algorytm bezdotykowego sterowania manipulatorem. Przedstawiono wyniki eksperymentów, przeprowadzonych w celu określenia dokładności i dobrania optymalnej metody sterowania.
EN
The article presents a gesture control system based on the Microsoft Kinect sensor. The most popular environments for implementation of the system realization using a variety of equipment and software are discussed. The prepared algorithm for non-contact control of the manipulator is presented. The paper discusses the results of experiments conducted to determine the accuracy of the control and the optimal control method.
PL
Praca dotyczy zagadnienia określania położenia i orientacji robota kroczącego wyposażonego w sensor Kinect. Pomiary odległości 3D mogą być do siebie dopasowywane, co pozwala określić przesunięcie i obrót między układami sensora w kolejnych pozycjach robota. Przy założeniu znajomości pozycji początkowej procedura ta może służyć inkrementalnej samolokalizacji robota. Przedstawiono procedurę dopasowywania chmur punktów za pomocą dwóch metod: algorytmu iteracyjnego dopasowywania najbliższych punktów oraz metody wykorzystującej cechy punktowe w obrazach odległościowych. Zaproponowano połączenie obu metod oraz uwzględnienie dodatkowych ograniczeń wynikających z charakteru ruchu robota. Przedstawiono wyniki doświadczeń potwierdzających skuteczność zaproponowanych rozwiązań.
EN
In this paper we investigate methods for self-localization of a walking robot with the Kinect 3D active range sensor. The Iterative Closest Point (ICP) algorithm is considered as the basis for the computation of the robot rotation and translation between two viewpoints. As an alternative, a feature-based method for matching of 3D range data is considered, using the Normal Aligned Radial Feature (NARF) descriptors. Then, it is shown that NARFs can be used to compute a good initial estimate for the ICP algorithm, resulting in convergent estimation of the sensor motion. Results obtained in a controlled environment and on a real walking robot are presented.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.