Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 49

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  object recognition
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
PL
Coraz częściej w przetwarzaniu i analizie obrazu termowizyjnego stosuje się uczenie maszynowe w kontekście rozpoznawania i identyfikacji obiektów. Niniejszy artykuł prezentuje wyniki badania wpływu augmentacji danych na efektywność uczenia maszynowego w kontekście analizy obrazów termowizyjnych. Wykorzystano publicznie dostępny zbiór danych FLIR ADAS, który zawiera etykietowane obrazy termowizyjne i obrazy z zakresu światła widzialnego. Badanie skupia się na wykorzystaniu konwolucyjnych sieci neuronowych, w szczególności architektury YOLOv8, do detekcji obiektów na obrazach termowizyjnych. Zbiór danych FLIR ADAS został poddany wstępnemu przetwarzaniu i augmentacji, a następnie wykorzystany do trenowania dwóch różnych modeli: jednego opartego na obrazach w skali szarości i drugiego - opartego na obrazach z zastosowaną paletą kolorów. Wyniki eksperymentu wskazują, że augmentacja danych może znacząco wpłynąć na efektywność modelu, a zastosowanie kolorów w obrazach termowizyjnych może w pewnych sytuacjach dodatkowo zwiększyć dokładność detekcji.
EN
Machine learning is increasingly being applied in the processing and analysis of thermal imaging for object recognition and identification. This article presents a study on the impact of data augmentation on the effectiveness of machine learning in the context of thermal image analysis. The publicly available FLIR ADAS dataset, which includes labeled thermal and visible light images, was used for this study. The research focuses on the use of Convolutional Neural Networks, specifically the YOLOv8 architecture, for object detection in thermal images. As part of the study, the FLIR ADAS dataset underwent preprocessing and augmentation, and was then used to train two different models: one based on grayscale images and another using a color palette. The results of the experiment indicate that data augmentation can significantly impact the effectiveness of the model, and the use of colors in thermal images may, in certain situations, further improve detection accuracy.
2
Content available remote Rotation Invariance in Graph Convolutional Networks
EN
Convolution filters in deep convolutional networks display rotation variant behavior. While learned invariant behavior can be partially achieved, this paper shows that current methods of utilizing rotation variant features can be improved by proposing a grid-based graph convolutional network. We demonstrate that Grid-GCN heavily outperforms existing models on rotated images, and through a set of ablation studies, we show how the performance of Grid-GCN implies that there exist more performant methods to utilize fundamentally rotation variant features and we conclude that the inherit nature of spectral graph convolutions is able to learn invariant behavior.
EN
An insufficient number or lack of training samples is a bottleneck in traditional machine learning and object recognition. Recently, unsupervised domain adaptation has been proposed and then widely applied for cross-domain object recognition, which can utilize the labeled samples from a source domain to improve the classification performance in a target domain where no labeled sample is available. The two domains have the same feature and label spaces but different distributions. Most existing approaches aim to learn new representations of samples in source and target domains by reducing the distribution discrepancy between domains while maximizing the covariance of all samples. However, they ignore subspace discrimination, which is essential for classification. Recently, some approaches have incorporated discriminative information of source samples, but the learned space tends to be overfitted on these samples, because they do not consider the structure information of target samples. Therefore, we propose a feature reduction approach to learn robust transfer features for reducing the distribution discrepancy between domains and preserving discriminative information of the source domain and the local structure of the target domain. Experimental results on several well-known cross-domain datasets show that the proposed method outperforms state-of-the-art techniques in most cases.
4
Content available System graficznego rozpoznawania obiektów ruchomych
PL
System graficznego rozpoznawania ruchomych obiektów to rozwiązanie, które może być bardzo szeroko stosowane w życiu codziennym. Taki system powinien rozpoznać obiekty określone przez użytkownika przed jego uruchomieniem. Algorytmy stosowane w tym systemie powinny mieć dużą szybkość i dokładność. Istnieje wiele rozwiązań dla takich algorytmów, które wykorzystują wiele różnych technik i ustawień. W artykule przedstawiono podstawowe pojęcia i zasady systemu rozpoznawania obiektów mobilnych, a także przedstawiono koncepcję nowego systemu graficznego do rozpoznawania obiektów mobilnych, który ma większe możliwości niż systemy dotychczas używane.
EN
The system of graphic recognition of moving objects is a solution that can be very widely used in everyday life. Such a system should recognize objects that are specified by the user before launching it. The algorithms that are used in this system are expected to have high speed and accuracy. There are many solutions for such algorithms that use many different techniques and settings. This article presents the basic concepts and principles of the moving object recognition system, and also presents the concept of a new graphic system for recognizing moving objects that has greater capabilities than the systems used so far.
EN
With the advent of 3D cameras, getting depth information along with RGB images has been facilitated, which is helpful in various computer vision tasks. However, there are two challenges in using these RGB-D images to help recognize RGB images captured by conventional cameras: one is that the depth images are missing at the testing stage, the other is that the training and test data are drawn from different distributions as they are captured using different equipment. To jointly address the two challenges, we propose an asymmetrical transfer learning framework, wherein three classifiers are trained using the RGB and depth images in the source domain and RGB images in the target domain with a structural risk minimization criterion and regularization theory. A cross-modality co-regularizer is used to restrict the two-source classifier in a consistent manner to increase accuracy. Moreover, an L2,1 norm cross-domain co-regularizer is used to magnify significant visual features and inhibit insignificant ones in the weight vectors of the two RGB classifiers. Thus, using the cross-modality and cross-domain co-regularizer, the knowledge of RGB-D images in the source domain is transferred to the target domain to improve the target classifier. The results of the experiment show that the proposed method is one of the most effective ones.
EN
This article presents a novel approach to segmentation and counting of objects in color digital images. The objects belong to a certain class, which in this case are honey bees. The authors briefly present existing approaches which use Convolutional Neural Networks to solve the problem of image segmentation and object recognition. The focus however is on application of U-Net convolutional neural network in an environment where knowledge about the object of interest is only limited to its rough, single pixel location. The authors provide full access to the details of the code used to implement the algorithms, as well as the data sets used and results obtained. The results show an encouraging low level of counting error at 14.27% for the best experiment.
EN
In the ever increasing number of robotic system applications in the industry, the robust and fast visual recognition and pose estimation of workpieces are of utmost importance. One of the ubiquitous tasks in industrial settings is the pick-and-place task where the object recognition is often important. In this paper, we present a new implementation of a work-piece sorting system using a template matching method for recognizing and estimating the position of planar workpieces with sparse visual features. The proposed framework is able to distinguish between the types of objects presented by the user and control a serial manipulator equipped with parallel finger gripper to grasp and sort them automatically. The system is furthermore enhanced with a feature that optimizes the visual processing time by automatically adjusting the template scales. We test the proposed system in a real-world setup equipped with a UR5 manipulator and provide experimental results documenting the performance of our approach.
8
Content available remote Accurate ball tracking in volleyball actions to support referees
EN
This paper proposes a method for offline accurate ball tracking for short volleyball actions in sport halls. Our aim is to detect block touches on the ball and to determinate accurate trajectory and impact positions of the ball to support referees. The proposed method is divided into two stages, namely training and ball tracking, and is based on background subtraction. Application of the Gaussian mixture model has been used to estimate a background, and a high-speed camera with a capture rate of 180 frames per second and a resolution of 1920 × 1080 are used for motion capture. In sport halls significant differences in light intensity occur between each sequence frame. To minimize the influence of these light changes, an additional model is created and template matching is used for accurate determination of ball positions when the ball contour in the foreground image is distorted. We show that this algorithm is more accurate than other methods used in similar systems. Our light intensity change model eliminates almost all pixels added to images of moving objects owing to sudden changes in intensity. The average accuracy achieved in the validation process is of 0.57 pixel. Our algorithm accurately determined 99.8% of all ball positions from 2000 test frames, with 25.4 ms being the average time for a single frame analysis. The algorithm presented in this paper is the first stage of referee support using a system of many cameras and 3D trajectories.
EN
Keypoint detection is a basic step in many computer vision algorithms aimed at recognition of objects, automatic navigation and analysis of biomedical images. Successful implementation of higher level image analysis tasks, however, is conditioned by reliable detection of characteristic image local regions termed keypoints. A large number of keypoint detection algorithms has been proposed and verified. In this paper we discuss the most important keypoint detection algorithms. The main part of this work is devoted to description of a keypoint detection algorithm we propose that incorporates depth information computed from stereovision cameras or other depth sensing devices. It is shown that filtering out keypoints that are context dependent, e.g. located at boundaries of objects can improve the matching performance of the keypoints which is the basis for object recognition tasks. This improvement is shown quantitatively by comparing the proposed algorithm to the widely accepted SIFT keypoint detector algorithm. Our study is motivated by a development of a system aimed at aiding the visually impaired in space perception and object identification.
EN
Service robots already take over some chores of our daily life, for example as autonomous vacuum cleaners or lawn mowing machines. In the near future it is expected that service robots can fully undertake many domestic tasks and assist in different operating places like restaurants, hospitals or industries. We have developed a cost effective prototype of a mobile service robot that can operate in indoor environments. The robot works under ROS and has a kinect sensor for vision and tracking. The robot maps the environment using SLAM and can navigate between locations avoiding permanent and temporary obstacles. Our objective is to deploy image processing algorithms and advanced decision making abilities using low computing power on the Robot. Using distributed ROS nodes the robot sends the image stream from its sensors to a server to be processed using deep learning algorithms. The results of the processing are sent back to the robot to guide its navigation and operations.
DE
Serviceroboter übernehmen schon heute einige Aufgaben des täglichen Lebens, zum Beispiel als autonome Staubsauger oder Rasenmäher. In naher Zukunft, so wird erwartet, werden Serviceroboter eine Vielzahl von Hausarbeiten erledigen und in verschieden Bereichen wie Restaurants, Krankenhäusern oder der Industrie eingesetzt werden. Wir haben einen kostengünstigen mobilen Prototypen eines Serviceroboters für den Innenbereich entwickelt. Der Roboter läuft unter ROS und verfügt über einen Kinekt-Sensor für maschinelles Sehen und Tracking. Der Roboter kartografiert die Umgebung mittels SLAM und navigiert zwischen Positionen und weicht dabei permanenten und temporären Hindernissen aus. Unser Ziel ist es Bildverarbeitungsalgorithmen und komplexe Entscheidungsprozesse für geringe Computerleistung im Roboter einzusetzen. Über verteilte ROS-Knoten sendet der Roboter den Videostream vom Sensor zum Server, wo er mit Deep Learning Algorithmen verarbeitet wird. Die Verarbeitungsergebnisse werden zum Roboter zurückgesendet um seine Navigation und Funktionen zu steuern.
11
EN
Dimension reduction and feature selection are fundamental tools for machine learning and data mining. Most existing methods, however, assume that objects are represented by a single vectorial descriptor. In reality, some description methods assign unordered sets or graphs of vectors to a single object, where each vector is assumed to have the same number of dimensions, but is drawn from a different probability distribution. Moreover, some applications (such as pose estimation) may require the recognition of individual vectors (nodes) of an object. In such cases it is essential that the nodes within a single object remain distinguishable after dimension reduction. In this paper we propose new discriminant analysis methods that are able to satisfy two criteria at the same time: separating between classes and between the nodes of an object instance. We analyze and evaluate our methods on several different synthetic and real-world datasets.
12
EN
Computer vision and image recognition are one of the most popular theme nowadays. Moreover, this technology developing really fast, so filed of usage increased. The main aims of this article are explain basic principles of this field and overview some interesting technologies that nowadays are widely used in computer vision and image recognition.
PL
W poniższej pracy skupiono uwagę na wykorzystaniu czujników RGB-D do rozpoznawania obiektów na potrzeby robotyki usługowej. W szczególności celem było porównanie działania wybranych metod weryfikacji hipotez. W referacie pokrótce opisano kompletny podsystem percepcji robota służący do rozpoznawania obiektów oraz zaproponowano odpowiednią metodykę badań. W badaniach tych przeanalizowano zarówno poprawność detekcji, jak i pozycjonowania rozpoznawanych obiektów. Otrzymane wyniki potwierdzają poprawność opracowanego rozwiązania i wskazują kierunki dalszego rozwoju systemu.
EN
In this paper we focus on the utilization of RGB-D sensors in robot perception for the purpose of recognition of diverse objects. In particular, we compare three selected methods for verification of object hypotheses. We briefly present the complete robot perception subsystem and propose a comparison methodology. In the performed studies we have analyzed the correctness of both detection and pose estimation of the recognized objects. The results confirmed the correctness of the developed solution and indicate directions for further research.
PL
Robotyka usługowa, będąca od dłuższego czasu jednym z głównych kierunków zainteresowania robotyków na świecie, dąży do stworzenia robotów potrafiących współpracować z ludźmi bądź wyręczać ich w zadaniach poza fabrykami. W niemalże wszystkich tego typu zastosowaniach, jedną z kluczowych kwestii jest rozpoznawanie obiektów w otoczeniu robota. Dostępność pełnych, trójwymiarowych modeli tych przedmiotów znacząco poprawia jakość ich detekcji i rozpoznawania. Budowanie modeli obiektów jest dużo łatwiejsze przy zastosowaniu stolików obrotowych w celu akwizycji wielu widoków tego samego przedmiotu. W artykule przedstawiono projekt i budowę stanowiska do półautomatycznego zbierania wielu widoków obiektów.
EN
Service robotics which is now a hot topic worldwide, aims at creating robots able to cooperate with people or even do everyday tasks for them. One of the key issues in such applications is the object recognition task. Detection and recognition of such can be greatly improved, if full, three-dimensional models of objects are available. And those can be created in fast and robust way using rotators to capture multiple views of the same object. In this paper, design and construction of the smart rotator for semi-automatic acquisition of multiple object views is presented.
PL
Detekcja obiektów na obrazach RGB jest ważnym zagadnieniem w kontekście postrzegania otoczenia przez autonomiczne roboty. W niniejszej pracy zaproponowano i przetestowano nowe podejście do tego problemu. Podejście to łączy wykorzystanie hierarchii części jako kompaktowej reprezentacji modelu obiektu oraz probabilistycznych modeli grafowych jako metody wnioskowania o obecności obiektów. Hierarchia składa się części, które zostały podzielone na warstwy. Każda część jest kompozycją kilku części z niższej warstwy, wyuczoną na podstawie przykładowych obrazów. Części są współdzielone pomiędzy kategoriami obiektów, co znacznie komplikuje proces wnioskowania, lecz daje wiele korzyści. Zaproponowany system może w przyszłości służyć do wspomagania nawigacji robotów mobilnych, a także z nimi współpracować. Skuteczność zaprezentowanego rozwiązania przetestowano na ogólnie dostępnym zbiorze ETHZ Shape Classes .
EN
Object detection on RGB images is an important problem in a context of an environment perception by mobile robots. In this work I proposed and tested a novel approach to this problem. The approach combines an usage of a parts hierarchy as a compact object model representation with an utilization of probabilistic graphical models to infer about objects existence. The hierarchy is build from parts that are organised as layers. Every part is a composition of several lower layer parts, learned on a basis of sample images presenting objects. Parts are shared among object categories, which significantly complicates inference process, but brings multiple benefits. The proposed system may aid navigation systems of mobile robots in the future and cooperate with them. An efficiency of the solution was tested on a publicly available ETHZ Shape Classes dataset.
16
Content available A surface and air object identification set
EN
This article presents an optic-thermal set which is designed to continuously control monitored space using two vision cameras and a thermo-vision camera installed on a rotary head. On receiving data this set recognizes and identifies floating and low-flying objects on the basis of their classification features and thermal characteristics. The data on location of detected targets is displayed on an electronic chart of the monitored area pursuant to the requirements specified for automated command systems. In addition, the set is capable of tracking movement of selected objects in real time.
PL
W artykule przedstawiono zestaw optyczno-termalny, który przeznaczony jest do ciągłego nadzoru nad obserwowaną przestrzenią za pomocą dwóch kamer wizyjnych i kamery termowizyjnej zainstalowanych na obrotowej głowicy. Zestaw ten wykorzystując pozyskaną informację, dokonuje rozpoznania i identyfikacji obiektów pływających i obiektów nisko lecących na podstawie ich cech klasyfikacyjnych i charakterystyk termicznych. Informacje o położeniu wykrytych obiektów są przedstawione na elektronicznej mapie cyfrowej obserwowanego akwenu zgodnie z wymaganiami stawianymi dla zautomatyzowanych systemów dowodzenia. Ponadto zestaw ten ma możliwość śledzenia ruchu wybranych obiektów w czasie rzeczywistym.
EN
Hardware implementation of a widely used decision tree classifier is presented in this paper. The classifier task is to perform image-based object classification. The performance evaluation of the implemented architecture in terms of resource utilization and processing speed are reported. The presented architecture is compact, flexible and highly scalable and compares favorably to software-only solutions in terms of processing speed and power consumption.
18
Content available The use of cloud computing in mobile robotics
EN
The increasing popularity of mobile service robots results in the development of technologies aimed at improving the performance of computing while simultaneously reducing energy consumption of processing units. Projects are proposed for offloading complex computation from robots into other platforms. The migration of data for storage, computing, and other purposes is described as cloud computing. This solution has a number of advantages over traditional approach, where all actions are performed on a single machine. The main advantages include the increase of operating time and decrease of mass by reducing the capacity of the required energy sources. This is thanks to the fact that the mobile agent can be tasked with no or only simple data processing. In the paper, an analysis of the capability of the most popular cloud robotic platforms is presented. Furthermore, descriptions of typical cloud architectures as well as factors in favour of applying cloud systems into mobile robots are described. Short descriptions of a number of popular cloud-based platforms including the DAvinCi project, Cloud-Based Robot Grasping Project, and RoboEarth are provided. RoboEarth is further described in greater detail including its main advantages. Basic tests using the Kinect sensor and RoboEarth object recognition software were performed. Lastly, a potential application for the system based on available mobile platforms is described.
PL
Wzrost popularności robotyki mobilnej przyczynił się do poszukiwania technologii umożliwiających zwiększenie wydajności obliczeniowej jednostek sterujących przy jednoczesnym zmieszeniu ich zapotrzebowania energetycznego. Jednym z proponowanych rozwiązań jest przeniesienie złożonych obliczeniowo zadań z procesorów robotów do zewnętrznych platform. Migracja danych w celach przechowania, obliczeniowych i innych określana jest mianem chmury komputerowej. Rozwiązanie to, które zaproponowane zostało po raz pierwszy w latach 60. XX wieku, posiada szereg zalet w porównaniu z klasycznymi metodami przetwarzania danych. Najważniejsze z nich to zwiększenie czasu operacyjnego robota oraz redukcja jego masy poprzez zmniejszenie pojemności wymaganych źródeł energii. W artykule przedstawiono analizę stanu wiedzy z zakresu wykorzystania przetwarzania danych w chmurze obliczeń w zastosowaniach związanych z robotyką mobilną. Opisane zostały architektury chmur obliczeniowych wykorzystywanych w popularnych projektach: DAvinCi, Cloud-Based Robot Grasping oraz RoboEarth. Ze względu na otwarty charakter ostatniej z wymienionych platform została ona szerzej przedstawiona i wykorzystana w testach laboratoryjnych. W przeprowadzonych pracach badawczych zastosowano sensor Kinect, który został wykorzystany w celu detekcji obiektów za pomocą platformy RoboEarth. Przedstawiono potencjalne zastosowania opisanej technologii dla realizacji zadań wymagających zastosowania grupy robotów mobilnych.
PL
Dwuczęściowy artykuł poświęcony jest rozpoznawaniu obiektów w obrazach RGB-D na potrzeby robotyki usługowej. W pierwszej części omówiono modele obiektów oraz metodę ich generacji. W poniższej, drugiej części uwagę skupiono na rozpoznawaniu instalacji obiektów z wykorzystaniem cech ekstrahowanych z obrazów RGB-D oraz wnioskowania probabilistycznego. Przedstawiono ideę zastosowania sieci Bayesa, proces generacji jej struktury oraz metodę wyznaczania wag początkowych sieci na podstawie wczytanych modeli obiektów. Omówiono proces rozpoznawania instalacji polegających na generacji hipotez przez sieć Bayesa na podstawie dopasowań cech wyekstrahowanych z aktualnie analizowanego obrazu RGB-D do cech modeli. Przedstawiono wyniki weryfikujące poprawność działania systemu.
EN
The two-part article is devoted to the recognition of instances of objects in RGB-D images. The first part discusses the generation of object models. Current, second part focuses on utilization of probabilistic inference fo generation of lattice of hypotheses representing matching of the features observed in the image to features of stored object models. After a brief introduction to probabilistic inference, we present the general idea of system, discuss the method of generation of the Bayesian network and present the results of experiments that confirm the correct operation of the developed solution.
PL
Czujniki RGB-D zwracające obrazy kolorowe wraz ze skojarzonymi mapami głębi otwierają nowe możliwości w percepcji robotów. W dwuczęściowym artykule skupiono uwagę na rozpoznawaniu obiektów w obrazach zwracanych przez tego typu urządzenia. W poniższej, pierwszej części skupiono uwagę na generacji modeli obiektów trójwymiarowych. Zaprezentowano stworzone stanowisko do akwizycji różnych widoków obiektów oraz omówiono proces tworzenia modeli poprzez łączenie tych widoków. Ideę jego działania oparto o przekształcenie obrazu RGB-D do postaci chmury punktów oraz ekstrakcję cech. Stworzone modele wykorzystywane są następnie do rozpoznawania konkretnych instalacji obiektów z wykorzystaniem metod probabilistycznych, czemu poświęcono drugą część artykułu.
EN
The two-part article focuses on the recognition of objects in RGB-D images. The following, first part is devoted to the generation of model of three-dimensional objects. A single model is created from several views of a given object. The whole process os based on the conversion of a single view (an RGB-D image with the object mask) into a point cloud and extraction of features, which are suqsequently used in the process of merging all views into a single model of an object. The second part of the article describes how those models are used for the recognition of object instances in analysed RGB-D images.
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.