Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 12

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  percepcja obrazu
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Dzięki dzisiejszej zaawansowanej technologii sensorów 3D i dużej dostępności mocy obliczeniowej, uzyskanie i przedstawienie informacji na temat obszarów nieznanych dla systemu wizyjnego jest w zasięgu ręki. Autorzy tego artykułu prezentują skuteczne zastosowanie tej dotychczas mało używanej wiedzy w udoskonaleniu znanego algorytmu RANSAC do opracowania chmur punktów. Przeprowadzone zostały doświdczenia na rzeczywistych obrazach 3D, które dowodzą wielkokrotnej poprawy skuteczności dotychczas stosowanych metod w połączeniu z naszym algorytmem.
EN
Thanks to recent advance in 3D sensing technology and affordable high computational capability, capturing and processing information about areas unknown to a vision system became possible. The authors of this article present an effective application of this barely used knowledge for improving the known RASNAC algorithm for point cloud matching. The presented experiments, carried on real 3d images, prove that the proposed method significantly improves the effectiveness of state-of-the art methods when combined with our algorithm.
PL
W referacie przedstawiono przebieg i wyniki testów czujnika Kinect for Windows, wraz z dedykowanym oprogramowaniem, pod kątem zastosowania w robotyce społecznej. Rozważono dwa projekty oprogramowania - Microsoft Kinect SDK i OpenNI z biblioteką NiTE. Szczególny nacisk położono na parametry mające wpływ na działanie kompetencji robota społecznego, takie jak szybkość wykrycia użytkownika, dokładność określenia jego położenia i orientacji czy też stabilność śledzenia poszczególnych użytkowników. Wskazano kluczowe cechy i różnice między przetestowanymi pakietami w kontekście algorytmów zorientowanych na percepcję człowieka.
EN
This paper describes experiments carried out using a Kinect for Windows sensor and dedicated software with emphasis on use in social robotics. Two software packages are considered - Microsoft Kinect SDK and OpenNI with NiTE library. Particular emphasis is placed upon the parameters affecting the competencies of a social robot, such as detection time, accuracy of joint position and orientation detection or stability of tracking of individual user. Key characteristics of the tested packages are identified and the integration with exisiting social robot control system described.
PL
Artykuł przedstawia modifikacje algorytmu monokularowego EKF-SLAM (MonoSLAM). Jego działanie rozszerzono o wykorzystanie bezpośrednich pomiarów odległości, które są dostępne dla niektorych współczesnych sensorów wizyjnych. Ponadto zachowano typowy dla monokularowego SLAM mechanizm śledzenia cech o częściowo określonym położeniu. Wykazano, iż taka forma inicjalizacji cech zwiększa skuteczność działania badanego algorytmu, a także dokładność estymacji położenia cech.
EN
The paper present a modification of an existing algorithm - MonoSLAM. It has been altered in order to receive direct information from Kinect and use it to determine the location of point features. This method allows to initialize features, for which distance is possible to be measured, with directly measured values. For other features typical monocular SLAM initialization mechanism is preserved. The gathered results illustrate that this initialization of features significantly improves the functioning of the original algorithm. It does not lose the position of the feature and maps the desired trajectory much better. Reduction of uncertainty of a feature is also much faster.
EN
Since the low-cost depth sensors have become widely available, RGB-D mapping is getting more popular in mobile robotics. These sensors provide large amounts of data providing images and depth information. To build 3D maps on-line the high speed data registration alogrithm is needed. To solve this problem we propose the GPGPU implementation of the FAST and BFROST matching algorithms using both RGB image and normal vectors visualization image. We compute the initial transformation usisng RANSAC and HORN closed-form solution algorithm. Finally, we use semantic information to improve the GPGPU ICP and to get an accurate model of the environment.
PL
Celem pracy jest przedstawienie algorytmu lokalizacji sematycznej na podstawie danych pochodzących z dalmierza laserowego i sensora Kinect. Opisywane są następujące etapy algorytmu: pobranie informacji z układu sensorycznego (dalmerza laserowego i kamery Kinect), analiza kształtu obserowanego otoczenia przy wykorzystaniu danych z dalmierza laserowego, segmentacja chmury punktów, określenie zbioru obserowwanych obiektów, określenie zbioru hipotez i agregacja informacji za pomocą teorii Dempstera-Shafera oraz klasyfikacja rodzaju pomieszczenia, w którym znajduje się robot. Opisywana metoda została przetestowana w rzeczywistym otoczeniu budynku Wydziału Mechatroniki Politechniki Warszawskiej.
EN
The paper presents the method of semantic localization of a mobile robot. The robot is equipped with the Sick laser finder and Kinect sesnor. The simplest source of information about an environment is a scan obtained by range sensor. The polygonal approximation of an observed area is performed. The shape of the polygon allow us to distinguish corridors from other places using simple rule based system. During the next step rooms are classified based on objects which have been recognized. Each object votes for a set of classes of rooms. In a real environment we deal with uncertainty. Usually probabilistic theory is used to solve the problem but it is not capable of capturing subjective uncertainty. In our approach instead of classical bayesian method we propose to performed classification using Dempster-Shafer theory (DST), which can be regarded as a generalization of the Bayesian theory and is able to deal with subjective uncertainty. The experiment performed in real office environment prooved the efficiency of our approach.
PL
Dwuczęściowy artykuł poświęcony jest rozpoznawaniu obiektów w obrazach RGB-D na potrzeby robotyki usługowej. W pierwszej części omówiono modele obiektów oraz metodę ich generacji. W poniższej, drugiej części uwagę skupiono na rozpoznawaniu instalacji obiektów z wykorzystaniem cech ekstrahowanych z obrazów RGB-D oraz wnioskowania probabilistycznego. Przedstawiono ideę zastosowania sieci Bayesa, proces generacji jej struktury oraz metodę wyznaczania wag początkowych sieci na podstawie wczytanych modeli obiektów. Omówiono proces rozpoznawania instalacji polegających na generacji hipotez przez sieć Bayesa na podstawie dopasowań cech wyekstrahowanych z aktualnie analizowanego obrazu RGB-D do cech modeli. Przedstawiono wyniki weryfikujące poprawność działania systemu.
EN
The two-part article is devoted to the recognition of instances of objects in RGB-D images. The first part discusses the generation of object models. Current, second part focuses on utilization of probabilistic inference fo generation of lattice of hypotheses representing matching of the features observed in the image to features of stored object models. After a brief introduction to probabilistic inference, we present the general idea of system, discuss the method of generation of the Bayesian network and present the results of experiments that confirm the correct operation of the developed solution.
PL
Czujniki RGB-D zwracające obrazy kolorowe wraz ze skojarzonymi mapami głębi otwierają nowe możliwości w percepcji robotów. W dwuczęściowym artykule skupiono uwagę na rozpoznawaniu obiektów w obrazach zwracanych przez tego typu urządzenia. W poniższej, pierwszej części skupiono uwagę na generacji modeli obiektów trójwymiarowych. Zaprezentowano stworzone stanowisko do akwizycji różnych widoków obiektów oraz omówiono proces tworzenia modeli poprzez łączenie tych widoków. Ideę jego działania oparto o przekształcenie obrazu RGB-D do postaci chmury punktów oraz ekstrakcję cech. Stworzone modele wykorzystywane są następnie do rozpoznawania konkretnych instalacji obiektów z wykorzystaniem metod probabilistycznych, czemu poświęcono drugą część artykułu.
EN
The two-part article focuses on the recognition of objects in RGB-D images. The following, first part is devoted to the generation of model of three-dimensional objects. A single model is created from several views of a given object. The whole process os based on the conversion of a single view (an RGB-D image with the object mask) into a point cloud and extraction of features, which are suqsequently used in the process of merging all views into a single model of an object. The second part of the article describes how those models are used for the recognition of object instances in analysed RGB-D images.
PL
Niniejszy artykuł dotyczy kluczowego zagadnienia w dziedzinie rozpoznawania obiektów - znaczenia cech. Powołując się na naturalne mechanizmy powstawania perceptów w korze wzrokowej zwierząt, autorzy kwestionują zasadność stosowania tych samych cech do klasyfikacji wszystkich obiektów, co obecnie ma miejsce w większości systemów wizyjnych. W artykule przedstawiono wyniki badań dokonanych na chmurach punktów o wysokiej dokładności, ktore zmierzają do głębszego zrozumienia użyteczności różnych cech RGB-D w rozpoznawaniu różnych klas obiektów. Wyciągnięte wnioski mogą sprzyjać powstaniu algorytmów wizyjnych bardziej elastycznych od obecnie istniejących. W pracy omówiono także narzędzia użyteczne przy dobieraniu cech w zadaniach klasyfikacji konkretnych obiektów.
EN
This article concerns a crucial topic in object recognition - the importance of feature. Inspired by the natural perception mechanisms of the animal visual cortex, the author quesion the prevalent tendency in computer vision of using the same feature for classification of all objects. The presented experimental results and conclusions aim to achieve a better understanding of the usefulness of various RGB-D feature for classification of different object classes. Furthermore, for classification of specific objects and show the need to invent more elastic computer vision algoritms.
PL
Praca dotyczy zagadnienia określania położenia i orientacji sensora wizyjnego względem sześciu stopni swobody z wykorzystaniem cech punktowych wyodrębnionych z danych RGB-D. Skoncentrowano się na efektywnych algorytmach ekstrakcji cech w postaci punktów w przestrzeni trójwymiarowej oraz metodach zarządzania zbiorem cech otrzymanych z pojedynczego obrazu. Algorytmy i metody stanowiące główny wkład prezentowanej pracy w dziedzinę przetwarzania danych RGB-D przedstawiono w kontekście użycia w szybkim systemie odometrii wizyjnej. Przedstawiono wyniki badań eksperymentalnych wykorzystujących dwa publicznie dostępne zestawy danych RGB-D.
EN
This paper concerns the problem of a vision sensor's position and orientation computation with regard to the full six degrees of freedom, using point features extracted from RGB-D data. We focus on efficient point feature extraction algorithms and on methods for the feature set management in a single RGB-D data frame. While the fast, RGB-D-based visual odometry system described in this paper builds upon our previous results as to the general architecture, the important novel elements introduced here are aimed at improving the precision and robustness of the motion estimate computed from the matching point features of two RGB-D frames. The visual odometry system is tested on two publicly available data sets, demonstrating performance comparable to a much more complicated and computation intensive RGB-D SLAM method.
PL
Artykuł przedstawia system percepcji dla robota kroczącego przeznaczonego do pracy poza budynkami. Opisano metodę budowy mapy podłoża przy użyciu danych z kamery stereowizyjnej. Zaprezentowano metody filtracji danych z kamery opierające się głównie na analizie obrazów głębi. Pokazano sposób wykorzystania uzyskanych chmur punktów do budowy modelu 2,5D otoczenia robota. Zbudowana mapa jest wykorzystywana w systemie sterowania robota kroczącego do planowania ruchu. Przedstawiono właściwości uzyskanego systemu percepcji i planera ruchu oraz wyniki uzyskane podczas eksperymentu na rzeczywistym robocie.
EN
The paper presents sensory system of the walking robot. The robot is designed to operate in outdoor natural and unstructured environment. A method for envionment modeling is presented. The robot uses stereo camera to acquire information about obstacles. The paper shows filtration methods used to remove erroneous measurements and improve the accuracy of the environment model. The proposed methods use disparity images to obtain filtered point cloud. Then the 2.5D elevation map is created. The article presents experimntal result obtained on the real six-legged walking robot.
PL
Praca dotyczy nowego podejścia wykorzystania analizy chodu do automatycznej weryfikacji tożsamości. W zaproponowanym algorytmie do weryfikacji tożsamości wykorzystywane są dane z modułu Skeletal Tracking obsługującego urządzenie Microsoft Kinect. Praca prezentuje metodę wstępnego przetwarzania sygnału pobranego z Kinecta, umożliwiającą późniejszą segmentację i wykorzystanie danych w procesie weryfikacji. W artykule zaproponowano następujący dwufazowy algorytm weryfikacji: w pierwszym etapie odrzuca on osoby na podstawie geometrii ciała, a w drugim na podstawie dynamiki chodu. Otrzymane za pomocą tej metody wyniki są porównywalne z tymi prezentowanymi w literaturze, ale w przeciwieństwie do nich w prezentowanym podejściu wykorzystuje się jeden sensor.
EN
The article presents an analysis of gait data for the purpose of automatic human identification. The data used for the analysis was captured with a Microsoft Kinect sensor and transformed by the Skeletal Tracking SDK. A gait recognition system based on the body geometry and analysis of signal describing movements of individual body parts was developed. Experiments were counducted to compare performance of several machine learning algorithms used for verification.
PL
Analizowany jest problem wyznaczania map 3D w oparciu o sekwencję obrazów 3D (chmur punktów), uzyskiwanych z różnych miejsc otoczenia. Jednym z zasadniczych jego podproblemów jest pasowanie dwóch chmur punktów. Badana jest metoda integrująca algorytmy IPC i RanSaC. Najpierw wyznaczane są punkty charakterystyczne obrazu i ich deskryptory, następnie metodą RanSaC określa się wstepną transformację pomiędzy dwoma zbiorami punktów charakterystycznych a na koniec - oblicza dokładną transformację dla wszystkich możliwych par punktów gęstych chmur. Możliwe są różne metody detekcji punktów charakterystycznych i realizacji IPC. W pracy zbadano eksperymentalnie efektywność obliczeniową i skuteczność pracy metod wykorzystujących różne zestawy parametrów.
EN
It analyzes the problem of determining the 3D map based on the sequence of 3D images (clouds of points), obtained from different places. One principal subproblem is how to match two point clouds. Depicted is a scheme that integrates the ICP and RanSaC algorithms. First, there are detected characteristic points in the image and thier descriptors are calculated. Then, the RanSaC determines the initial transformation between the two sets of characteristic points. In the end, the IPC calculates the final transformation for all possible pairs of points of dense clouds. There are different methods for the detection of characteristic points and the implementation of the IPC algorithm. They are experimentally compared and evaluated, with regard to their efficiency and corecteness.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.