Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 8

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  rozpoznawanie obiektu
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The main goal of the work was to create a project to implement an object recognition system into a modular didactic gear production system. The project shows how, thanks to the modular structure of the gear system, it is possible to easily add new elements to it, at the same time increasing its capabilities. At the beginning, the characteristics of the system were presented before the implementation, including a description of the production process that takes place in this system and all modules of the system were exchanged. Then the vision system for object recognition and all its components were described. The technical-organizational project of the implementation presented the concept of the deployment of the system modules and the principle of system operation after the implementation. A 3D model of all system components was also presented.
EN
An insufficient number or lack of training samples is a bottleneck in traditional machine learning and object recognition. Recently, unsupervised domain adaptation has been proposed and then widely applied for cross-domain object recognition, which can utilize the labeled samples from a source domain to improve the classification performance in a target domain where no labeled sample is available. The two domains have the same feature and label spaces but different distributions. Most existing approaches aim to learn new representations of samples in source and target domains by reducing the distribution discrepancy between domains while maximizing the covariance of all samples. However, they ignore subspace discrimination, which is essential for classification. Recently, some approaches have incorporated discriminative information of source samples, but the learned space tends to be overfitted on these samples, because they do not consider the structure information of target samples. Therefore, we propose a feature reduction approach to learn robust transfer features for reducing the distribution discrepancy between domains and preserving discriminative information of the source domain and the local structure of the target domain. Experimental results on several well-known cross-domain datasets show that the proposed method outperforms state-of-the-art techniques in most cases.
EN
With the advent of 3D cameras, getting depth information along with RGB images has been facilitated, which is helpful in various computer vision tasks. However, there are two challenges in using these RGB-D images to help recognize RGB images captured by conventional cameras: one is that the depth images are missing at the testing stage, the other is that the training and test data are drawn from different distributions as they are captured using different equipment. To jointly address the two challenges, we propose an asymmetrical transfer learning framework, wherein three classifiers are trained using the RGB and depth images in the source domain and RGB images in the target domain with a structural risk minimization criterion and regularization theory. A cross-modality co-regularizer is used to restrict the two-source classifier in a consistent manner to increase accuracy. Moreover, an L2,1 norm cross-domain co-regularizer is used to magnify significant visual features and inhibit insignificant ones in the weight vectors of the two RGB classifiers. Thus, using the cross-modality and cross-domain co-regularizer, the knowledge of RGB-D images in the source domain is transferred to the target domain to improve the target classifier. The results of the experiment show that the proposed method is one of the most effective ones.
4
EN
Dimension reduction and feature selection are fundamental tools for machine learning and data mining. Most existing methods, however, assume that objects are represented by a single vectorial descriptor. In reality, some description methods assign unordered sets or graphs of vectors to a single object, where each vector is assumed to have the same number of dimensions, but is drawn from a different probability distribution. Moreover, some applications (such as pose estimation) may require the recognition of individual vectors (nodes) of an object. In such cases it is essential that the nodes within a single object remain distinguishable after dimension reduction. In this paper we propose new discriminant analysis methods that are able to satisfy two criteria at the same time: separating between classes and between the nodes of an object instance. We analyze and evaluate our methods on several different synthetic and real-world datasets.
PL
W poniższej pracy skupiono uwagę na wykorzystaniu czujników RGB-D do rozpoznawania obiektów na potrzeby robotyki usługowej. W szczególności celem było porównanie działania wybranych metod weryfikacji hipotez. W referacie pokrótce opisano kompletny podsystem percepcji robota służący do rozpoznawania obiektów oraz zaproponowano odpowiednią metodykę badań. W badaniach tych przeanalizowano zarówno poprawność detekcji, jak i pozycjonowania rozpoznawanych obiektów. Otrzymane wyniki potwierdzają poprawność opracowanego rozwiązania i wskazują kierunki dalszego rozwoju systemu.
EN
In this paper we focus on the utilization of RGB-D sensors in robot perception for the purpose of recognition of diverse objects. In particular, we compare three selected methods for verification of object hypotheses. We briefly present the complete robot perception subsystem and propose a comparison methodology. In the performed studies we have analyzed the correctness of both detection and pose estimation of the recognized objects. The results confirmed the correctness of the developed solution and indicate directions for further research.
PL
Dwuczęściowy artykuł poświęcony jest rozpoznawaniu obiektów w obrazach RGB-D na potrzeby robotyki usługowej. W pierwszej części omówiono modele obiektów oraz metodę ich generacji. W poniższej, drugiej części uwagę skupiono na rozpoznawaniu instalacji obiektów z wykorzystaniem cech ekstrahowanych z obrazów RGB-D oraz wnioskowania probabilistycznego. Przedstawiono ideę zastosowania sieci Bayesa, proces generacji jej struktury oraz metodę wyznaczania wag początkowych sieci na podstawie wczytanych modeli obiektów. Omówiono proces rozpoznawania instalacji polegających na generacji hipotez przez sieć Bayesa na podstawie dopasowań cech wyekstrahowanych z aktualnie analizowanego obrazu RGB-D do cech modeli. Przedstawiono wyniki weryfikujące poprawność działania systemu.
EN
The two-part article is devoted to the recognition of instances of objects in RGB-D images. The first part discusses the generation of object models. Current, second part focuses on utilization of probabilistic inference fo generation of lattice of hypotheses representing matching of the features observed in the image to features of stored object models. After a brief introduction to probabilistic inference, we present the general idea of system, discuss the method of generation of the Bayesian network and present the results of experiments that confirm the correct operation of the developed solution.
PL
Czujniki RGB-D zwracające obrazy kolorowe wraz ze skojarzonymi mapami głębi otwierają nowe możliwości w percepcji robotów. W dwuczęściowym artykule skupiono uwagę na rozpoznawaniu obiektów w obrazach zwracanych przez tego typu urządzenia. W poniższej, pierwszej części skupiono uwagę na generacji modeli obiektów trójwymiarowych. Zaprezentowano stworzone stanowisko do akwizycji różnych widoków obiektów oraz omówiono proces tworzenia modeli poprzez łączenie tych widoków. Ideę jego działania oparto o przekształcenie obrazu RGB-D do postaci chmury punktów oraz ekstrakcję cech. Stworzone modele wykorzystywane są następnie do rozpoznawania konkretnych instalacji obiektów z wykorzystaniem metod probabilistycznych, czemu poświęcono drugą część artykułu.
EN
The two-part article focuses on the recognition of objects in RGB-D images. The following, first part is devoted to the generation of model of three-dimensional objects. A single model is created from several views of a given object. The whole process os based on the conversion of a single view (an RGB-D image with the object mask) into a point cloud and extraction of features, which are suqsequently used in the process of merging all views into a single model of an object. The second part of the article describes how those models are used for the recognition of object instances in analysed RGB-D images.
PL
Niniejszy artykuł dotyczy kluczowego zagadnienia w dziedzinie rozpoznawania obiektów - znaczenia cech. Powołując się na naturalne mechanizmy powstawania perceptów w korze wzrokowej zwierząt, autorzy kwestionują zasadność stosowania tych samych cech do klasyfikacji wszystkich obiektów, co obecnie ma miejsce w większości systemów wizyjnych. W artykule przedstawiono wyniki badań dokonanych na chmurach punktów o wysokiej dokładności, ktore zmierzają do głębszego zrozumienia użyteczności różnych cech RGB-D w rozpoznawaniu różnych klas obiektów. Wyciągnięte wnioski mogą sprzyjać powstaniu algorytmów wizyjnych bardziej elastycznych od obecnie istniejących. W pracy omówiono także narzędzia użyteczne przy dobieraniu cech w zadaniach klasyfikacji konkretnych obiektów.
EN
This article concerns a crucial topic in object recognition - the importance of feature. Inspired by the natural perception mechanisms of the animal visual cortex, the author quesion the prevalent tendency in computer vision of using the same feature for classification of all objects. The presented experimental results and conclusions aim to achieve a better understanding of the usefulness of various RGB-D feature for classification of different object classes. Furthermore, for classification of specific objects and show the need to invent more elastic computer vision algoritms.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.