Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 8

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Metody syntezy chodu maszyn kroczących i robotów humanoidalnych
PL
Na podstawie własnych badań pokazano, jak pewne wzorce biologiczne są wykorzystywane w pracach nad wielonożnymi maszynami kroczącymi i robotami humanoidalnymi. W szczególności, skupiając się na robotach humanoidalnych (antropomorficznych), omówiono, w jaki sposób odpowiednia konstrukcja stóp pozwala uzyskać synergię przechyłów korpusu i ruchu nóg wspomagającą dynamiczną stabilność chodu. W pierwszej części pracy podsumowano metody syntezy chodu wielonożnych maszyn kroczących oraz robotów humanoidalnych. Omówiono kryterium dynamicznej stabilności chodu (kryterium ZMP) powszechnie wykorzystywane do syntezy chodu dwunożnego. Kryterium to stanowiło punkt wyjściowy do wyznaczenia sił działających na stopę robota humanoidalnego. Mając na uwadze stopę podatną, opracowano metodę wyznaczania składowych sił działających na krawędzie stopy. W celu potwierdzenia przydatności metody podano przykład obliczeniowy dla chodu człowieka. Wyznaczano składowe sił wywieranych przez stopę na podłoże, uwzględniając różne wymiary stopy, oraz pokazano, jak podatność stopy wspomaga stabilność dynamiczną chodu.
2
Content available Transforming Biological Patterns into Robot Concepts
EN
Biology not only provides inspiration in the design of walking machines, but also suggests detailed design solutions. Concise information on legged locomotion in the animal world is presented, and the relationships between engineering solutions and the biological world are shown. The construction of animal legs is briefly described and the most commonly used leg structures for walking machines are discussed, including references to biological patterns. Examples of bio-inspired walking machines developed by our team are given and several concepts of bio-inspired robots are discussed. The general aim of the article is to show how knowledge of the animal world inspires innovative design solutions for robots intended for practical applications.
PL
Biologia nie tylko dostarcza inspiracji w pracach nad maszynami kroczącymi, ale także podpowiada szczegółowe rozwiązania konstrukcyjne. Głównym celem tego artykułu jest zilustrowanie na przykładach jak wzorce biologiczne przekształcane są w konkretne rozwiązania techniczne. Przedstawiono zwięzłe informacje na temat lokomocji nożnej w świecie zwierzęcym i pokazano związki między rozwiązaniami inżynierskimi a światem biologicznym. Pokrótce opisano budowę nóg zwierząt oraz najczęściej stosowane struktury nóg maszyn kroczących z uwzględnieniem odniesień do wzorców biologicznych. Podano przykłady opracowanych przez nasz zespół inspirowanych biologicznie maszyn kroczących oraz omówiono kilka koncepcji robotów inspirowanych światem biologicznym. Ogólnym celem artykułu jest pokazanie, w jaki sposób wiedza dotycząca świata zwierzęcego inspiruje nowatorskie rozwiązania konstrukcyjne robotów przeznaczonych do zastosowań praktycznych.
3
Content available Predicting Human Activity - State of the Art
EN
Predicting human actions is a very actual research field. Artificial intelligence methods are commonly used here. They enable early recognition and classification of human activities. Such knowledge is extremely needed in the work on robots and other interactive systems that communicate and cooperate with people. This ensures early reactions of such devices and proper planning of their future actions. However, due to the complexity of human actions, predicting them is a difficult task. In this article, we review state-of-the-art methods and summarize recent advances in predicting human activity. We focus in particular on four approaches using machine learning methods, namely methods using: artificial neural networks, support vector machines, probabilistic models and decision trees. We discuss the advantages and disadvantages of these approaches, as well as current challenges related to predicting human activity. In addition, we describe the types of sensors and data sets commonly used in research on predicting and recognizing human actions. We analyze the quality of the methods used, based on the prediction accuracy reported in scientific articles. We describe the importance of the data type and the parameters of machine learning models. Finally, we summarize the latest research trends. The article is intended to help in choosing the right method of predicting human activity, along with an indication of the tools and resources necessary to effectively achieve this goal.
PL
Przewidywanie działań człowieka to bardzo aktualny kierunek badań. Wykorzystywane są tu powszechnie metody sztucznej inteligencji. Umożliwiają one wczesne rozpoznawanie i klasyfikowanie działań człowieka. Taka wiedza jest niezwykle potrzebna w pracach nad robotami i innymi interaktywnymi systemami komunikującymi się i współpracującymi z ludźmi. Zapewnia to wczesne reakcje takich urządzeń i odpowiednie planowanie ich przyszłych działań. Jednak ze względu na złożoność działań człowieka ich przewidywanie jest trudnym zadaniem. W tym artykule dokonujemy przeglądu najnowocześniejszych metod i podsumowujemy ostatnie postępy w zakresie przewidywania aktywności człowieka. Skupiamy się szczególnie na czterech podejściach wykorzystujących metody uczenia maszynowego, a mianowicie na metodach wykorzystujących: sztuczne sieci neuronowe, metody wektorów nośnych, modele probabilistyczne oraz drzewa decyzyjne. Omawiamy zalety i wady tych podejść, a także aktualne wyzwania związane z zagadnieniami przewidywania aktywności człowieka. Ponadto opisujemy rodzaje czujników i zbiory danych powszechnie stosowane w badaniach dotyczących przewidywania i rozpoznawania działań człowieka. Analizujemy jakość stosowanych metod w oparciu o dokładność przewidywania raportowaną w artykułach naukowych. Opisujemy znaczenie rodzaju danych oraz parametrów modeli uczenia maszynowego. Na koniec podsumowujemy najnowsze trendy badawcze. Artykuł ma za zadanie pomóc przy wyborze właściwej metody przewidywania aktywności człowieka, wraz ze wskazaniem narzędzi i zasobów niezbędnych do efektywnego osiągnięcia tego celu.
EN
The cognitive goal of this paper is to assess whether marker-less motion capture systems provide sufficient data to recognize human postures in the side view. The research goal is to develop a new posture classification method that allows for analysing human activities using data recorded by RGB‐D sensors. The method is insensitive to recorded activity duration and gives satisfactory results for the sagittal plane. An improved competitive Neural Network (cNN) was used. The method of pre- processing the data is first discussed. Then, a method for classifying human postures is presented. Finally, classification quality using various distance metrics is assessed. The data sets covering the selection of human activities have been created. Postures typical for these activities have been identified using the classifying neural network. The classification quality obtained using the proposed cNN network and two other popular neural networks were compared. The results confirmed the advantage of cNN network. The developed method makes it possible to recognize human postures by observing movement in the sagittal plane.
PL
Rozpoznawanie postur jest potrzebne do analizy czynności wykonywanych przez człowieka, syntezy ruchu robotów humanoidalnych oraz w badaniach nad robotami współpracującymi. Popularne w ostatnich latach tanie, bezprzewodowe czujniki wizyjne RGB-D umożliwiające łatwa˛ rejestracje˛ ruchu człowieka, ułatwiają˛ realizacje˛ tego zadania badawczego. Powszechnie stosowane są, tu konwencjonalne klasyfikatory, które na podstawie zarejestrowanych trajektorii ruchu stawów rozpoznają˛ postury człowieka. Nie sprawdzają, się, one jednak w pełni podczas obserwacji ruchu w płaszczyźnie strzałkowej, gdy pozycje niektórych stawów są, przesłonięte. Celem niniejszej pracy jest opracowanie nowej metody klasyfikacji postur. Opracowana metoda umożliwia rozpoznawanie aktywności z wykorzystaniem konkurencyjnej sieci neuronowej (CNN). Badania zrealizowano w dwu etapach. Pierwszy etap obejmował wstępne przetwarzanie danych, obejmujący filtrowanie i transformacje˛ danych. Drugim etapem było dobranie odpowiedniej sieci klasyfikującej. Zastosowano sieć konkurencyjną z uczeniem nienadzorowanym. Jakość klasyfikacji była testowana w zależności od różnych metryk odległości. Po wyborze satysfakcjonującej metryki dokonano jakościowej i ilościowej oceny uzyskanych wyników. Porównano wyniki klasyfikacji uzyskane przy użyciu rożnych typów sieci neuronowych. W zakończeniu pracy sformułowano szereg wniosków.
EN
Popular in recent years, cheap, wireless RGB-D vision sensors enable easy registration of human movement to facilitate the implementation of this research task. Here, the conventional classifiers are commonly used, which recognize human postures based on the recorded trajectories of joint movement. However, it does not perform well when observing movement in the sagittal plane because the positions of some joints are invisible here. The aim of the work is to develop a method for postures classification leading to the classification of human activities using data recorded by the RGB-D cameras. The method enables the recognition of activity with the use of a competitive neural network (CNN). The research was carried out in two stages. First, data preprocessing was performed, including raw data filtering and transformation to locate the origin of the reference frame in the point in the torso and scaling to obtain a consistent representation of the data. The classification quality was then tested using different variants of the proposed unsupervised variants of competitive neural networks. Various measures of distance have been used here. The results were presented graphically using scatter plots and stick diagrams.
PL
W niniejszej publikacji zaproponowano metodę lokalizacji wizyjnej z wykorzystaniem obrazów z symulowanej kamery oraz mapy georeferencyjnej. Model BSP oraz symulacja lotu zostały wykonane w pakiecie MATLAB Simulink, który przesyłał dane dotyczące orientacji BSP do opisywanego programu. Wizualizacja obrazu z kamery została wykonana w czasie rzeczywistym przy pomocy oprogramowania FlightGear, której obraz również był przechwytywany przez program NW. Metoda ta realizowana jest przez dwa procesy w dwu modułach: Global Positioning Component oraz Motion Positioning Component. Pierwszy z nich porównuje obraz z symulowanej kamery z ortofotomapą. Drugi wyznacza pozycję na podstawie oceny przemieszczenia punktów charakterystycznych w obrazie w stosunku do ostatnio znanej lokalizacji. Wynik działania obu modułów ilustrowany jest w oknie graficznym aplikacji NW, co pozwala na wizualne porównanie uzyskanych wyników. W przypadku globalnej metody lokalizacji wymagana jest dodatkowa korekcja orientacji kamery w celu wyznaczenia pozycji w przestrzeni 2D. W tym celu wykorzystano dane dotyczące bieżącej orientacji kamery wyrażone w kwaternionach. Pozwoliło to na wprowadzenie poprawki pozycji, co znacząco poprawiło dokładność wyniku uzyskiwanego w module GPC mimo znacznych przechyleń BSP podczas symulowanego lotu.
EN
This publication proposes a visual localization method using images from a simulated camera and a georeferenced map. The UAV model and flight simulation were made in the MATLAB Simulink package, which sent UAV orientation data to the described program. The visualization of the camera image was performed in real time using the FlightGear software, the image of which was also captured by the NW program. This method is performed by two processes in two modules: Global Positioning Component and Motion Positioning Component. The first one compares the image from the simulated camera with the orthophotomap. The second determines the position based on the assessment of the displacement of characteristic points in the image in relation to the last known location. The result of the operation of both modules is illustrated in the graphic window of the NW application, which allows for a visual comparison of the obtained results. With the global method of location, additional camera orientation correction is required to determine the position in 2D space. For this purpose, data on the current camera orientation expressed in quaternions were used. This allowed for the introduction of a position correction, which significantly improved the accuracy of the result obtained in the GPC module despite significant UAV tilts during the simulated flight.
EN
Despite the growing popularity of machine learning technology, vision‐based action recognition/forecasting systems are seen as black‐boxes by the user. The effecti‐ veness of such systems depends on the machine learning algorithms, it is difficult (or impossible) to explain the de‐ cisions making processes to the users. In this context, an approach that offers the user understanding of these re‐ asoning models is significant. To do this, we present an Explainable Artificial Intelligence (XAI) based approach to action forecasting using structured database and object affordances definition. The structured database is sup‐ porting the prediction process. The method allows to vi‐ sualize the components of the structured database. Later, the components of the base are used for forecasting the nominally possible motion goals. The object affordance explicated by the probability functions supports the se‐ lection of possible motion goals. The presented methodo‐ logy allows satisfactory explanations of the reasoning be‐ hind the inference mechanism. Experimental evaluation was conducted using the WUT‐18 dataset, the efficiency of the presented solution was compared to the other ba‐ seline algorithms.
EN
This paper presents a concept of humanoid robot motion generation using the dedicated simplified dynamic model of the robot (Extended Cart-Table model). Humanoid robot gait with equal steps length is considered. Motion pattern is obtained here with use of Preview Control method. Motion trajectories are first obtained in simulations (off-line) and then they are verified on a test-bed. Tests performed using the real robot confirmed the correctness of the method. Robot completed a set of steps without losing its balance.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.