Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 38

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
PL
W pracy przedstawiono projekt urządzenia do automatycznego pielenia. Mechanizm składa się z trzech podstawowych elementów: ciągnika wyprodukowanego przez firmę MCMS Warka Sp. z o.o. specjalizującej się dotychczas w produkcji konwencjonalnych maszyn dla rolnictwa i sadownictwa, systemu wizyjnego oraz narzędzia do usuwania chwastów. W artykule opisany jest klasyfikator roślin oraz moduł śledzący zmiany położenia pojazdu. Część mechaniczna - moduł przemieszczania narzędzia jest w fazie projektowania i nie zostanie opisany w poniższym artykule.
EN
The objective of this project is the replacement of hand weeding by a device working autonomously at field level. The device consists of three parts: the vehicle, the vision system and weeding actuators. In this paper the vision system is described. It is used to compute the displacement of the vehicle and plants classification. The obtained accuracy level of plants classification equals to 96-98%. The error of displacement do not exceed 3 cm.
2
Content available remote Place classification using Dempster-Shafer theory
EN
The paper presents a novel place labeling method. It is assumed that an indoor mobile robot equipped with a camera or RGB-D sensor ambulates an indoor environment. The places visited by the robot are classified based on objects which have been recognized. Each object (or set of objects) votes for a set of room classes. Data aggregation is performed using Dempster-Shafer theory (DST), which can be regarded as a generalization of the Bayesian theory. The possibility of taking into account the uncertainty of data is the main advantage of the described method. The classic Dempster’s rule of data aggregation has been criticized because it can lead to non-intuitive results. Many alternative methods have been proposed and several were tested during our experiments. Most place classification methods assume a closed world model, i.e. a test sample is assigned to the most probable class even if its corresponding probability is very small. An advantage of our system is the intrinsic capability of giving unknown class as an answer in such situations, which can be used by the robot to take appropriate actions.
PL
Celem pracy jest przedstawienie algorytmu klasyfikacji miejsc wykorzystując teorię Dempstera-Shafera. Zaproponowany algorytm składa się z dwóch etapów: fazy uczenia oraz klasyfikacji pomieszczeń na podstawie występujących w tych pomieszczeniach obiektów. W przeciwieństwie do większości metod nie zakładamy świata zamkniętego, tzn. w przypadku braku dostatecznych przesłanek udzielana jest odpowiedź 'nie wiem'. Opisywana metoda została przetestowana w rzeczywistym otoczeniu w budynku wydziału Mechatroniki Politechniki Warszawskiej oraz wykorzystując publiczną bazę danych udostępnioną przez MIT.
EN
The paper presents a method of semantic labeling of the environment of a mobile indoor robot. In our approach we proposed a novel method of places classification. Rooms are classified based on objects which have been recognized by sensors. Each object (or sets of objects) votes for a set of classes of rooms. Data aggregation is performed using Dempster-Shafer theory (DST), which can be regarded as a generalization of the Bayesian theory. The experiments performed in real office environment and using simulation proved the efficiency of our approach.
PL
Celem pracy jest przedstawienie algorytmu lokalizacji sematycznej na podstawie danych pochodzących z dalmierza laserowego i sensora Kinect. Opisywane są następujące etapy algorytmu: pobranie informacji z układu sensorycznego (dalmerza laserowego i kamery Kinect), analiza kształtu obserowanego otoczenia przy wykorzystaniu danych z dalmierza laserowego, segmentacja chmury punktów, określenie zbioru obserowwanych obiektów, określenie zbioru hipotez i agregacja informacji za pomocą teorii Dempstera-Shafera oraz klasyfikacja rodzaju pomieszczenia, w którym znajduje się robot. Opisywana metoda została przetestowana w rzeczywistym otoczeniu budynku Wydziału Mechatroniki Politechniki Warszawskiej.
EN
The paper presents the method of semantic localization of a mobile robot. The robot is equipped with the Sick laser finder and Kinect sesnor. The simplest source of information about an environment is a scan obtained by range sensor. The polygonal approximation of an observed area is performed. The shape of the polygon allow us to distinguish corridors from other places using simple rule based system. During the next step rooms are classified based on objects which have been recognized. Each object votes for a set of classes of rooms. In a real environment we deal with uncertainty. Usually probabilistic theory is used to solve the problem but it is not capable of capturing subjective uncertainty. In our approach instead of classical bayesian method we propose to performed classification using Dempster-Shafer theory (DST), which can be regarded as a generalization of the Bayesian theory and is able to deal with subjective uncertainty. The experiment performed in real office environment prooved the efficiency of our approach.
EN
This paper presents a simplified version of the in-door navigation. It is based upon qualitative positioning that takes advantage of natural and artificial landmarks. The AR-tags are used as the latter. They bear semantic labels of elements of the building and allow the robot to position itself inside a particular compartment. Additionally, a concept of hybrid map is introduced. This map combines metric, topologie and semantic information about the working environment.
PL
Niniejszy artykuł dotyczy kluczowego zagadnienia w dziedzinie rozpoznawania obiektów - znaczenia cech. Powołując się na naturalne mechanizmy powstawania perceptów w korze wzrokowej zwierząt, autorzy kwestionują zasadność stosowania tych samych cech do klasyfikacji wszystkich obiektów, co obecnie ma miejsce w większości systemów wizyjnych. W artykule przedstawiono wyniki badań dokonanych na chmurach punktów o wysokiej dokładności, ktore zmierzają do głębszego zrozumienia użyteczności różnych cech RGB-D w rozpoznawaniu różnych klas obiektów. Wyciągnięte wnioski mogą sprzyjać powstaniu algorytmów wizyjnych bardziej elastycznych od obecnie istniejących. W pracy omówiono także narzędzia użyteczne przy dobieraniu cech w zadaniach klasyfikacji konkretnych obiektów.
EN
This article concerns a crucial topic in object recognition - the importance of feature. Inspired by the natural perception mechanisms of the animal visual cortex, the author quesion the prevalent tendency in computer vision of using the same feature for classification of all objects. The presented experimental results and conclusions aim to achieve a better understanding of the usefulness of various RGB-D feature for classification of different object classes. Furthermore, for classification of specific objects and show the need to invent more elastic computer vision algoritms.
PL
Celem pracy jest przedstawienie prototypu inteligentnego wózka transportowego. Urządzenie zostało zaprojektowane na Wydziale Mechatroniki Politechniki Warszawskiej, ale możliwości jego zastosowania były konsultowane z pracownikami Wojewódzkiego Szpitala w Łomży i pracownikami Instytutu Medycznego PWSIP. W artykule została zaprezentowana budowa urządzenia, oprogramowanie oraz wybrane wyniki eksperymentów ilustrujące jego działanie.
EN
The aim of this work is to present the prototype of an intelligent transport cart. The device has been created in faculty of Mechatronics of the Warsaw University of Technology. The possibility of its application has been consulted with the employees of the State Hospital of Łomża and the Medical Institute PWSIP. The article presents the hardware and software features of the robot and the selected experimental results which illustrate its functionality.
PL
Artykuł przedstawia metody wizyjne robota Kuriera służące do lokalizacji semantycznej oraz określania pozycji przycisków panelu wewnątrz windy. Pierwszy problem (lokalizacji robota na podstawie wzorców płaskich) rozwiązano wykorzystując synergię sensorów - skanera laserowego i kamery 2D. Skaner dostarcza informacji dotyczącej położenia i orientacji robota względem ścian, która dalej jest wykorzystywana w algorytmie wizyjnego rozpoznawania miejsc charakterystycznych. Do określenia pozycji przycisków panelu windy, zamiast algorytmu rozpoznawania przycisków, zaproponowano metodę opartą na perspektywicznej transformacji obrazu do układu współrzędnych związanego z łatwo rozpoznawalnym wzorcem przyklejonym obok panelu. Obydwie zaproponowane metody sprawdziły się w rzeczywistym środowisku pracy robota.
EN
The paper presents two methods used in the vision system of the Courier mobile robot. The first one addresses the problem of mobile robot localization based on a topological map. A synergistic combination of laser scanner readings and camera data is used to solve the problem. The 2D image is transformed according to the position of the walls detected using laser scanner data. For the second problem (the task of elevator buttons localization) we propose a method based on a QR code attached nearby the elevator panel. This approach is independent of the button individual features such as shape, color and material. The effectiveness of the methods has been proved in real environment.
PL
Celem projektu jest rozwinięcie semantycznego systemu nawigacji autonomicznego przy zastosowaniu BIM (ang. Building Information Modeling). Opisana reprezentacja umożliwia nawigację semantyczną robota i określenie calu trasy robota na różnych poziomach abstrakcji. Przedstawiony w artykule algorytm hierarchicznego planowania trasy jest w stanie wygenerować ścieżkę suboptymalną, jednocześnie zawiera sekwencje akcji niezbędnych do bezpiecznego poruszania się robota. Proces nawigacji wspierany jest przez lokalizację semantyczną, która wykorzystuje dwie metody: wykrywanie obiektów bazujące na chmurze punktów (dane pobrane z kamery 3D i przekonwertowanie w chmurę punktów) i wizyjnej detekcji płaskich wzorców naturalnych (na podstawie obrazów pochodzących z dwóch kolorowych kamer umieszczonych na bokach robota).
EN
In this paper the problem of BIM based indoor navigation is considered. The purpose of the project is to develop the semantic navigation system of an autonomous robot using BIM. The described representation enables semantic robot navigation with a goal specified at a various levels of abstraction. Presented in this paper hierarchical path planning algorithm is able to generate a time-optimized path including a sequence of actions required for robot safely movement across the whole building. The navigation process is supported by semantic localization which utilizes two methods: object detection based on point cloud (the 3D camera data aquired and converted into point cloud) and visual object detection (based on the image taken from two color cameras placed on the sides of the robot).
PL
W pracy przedstawiono algorytm umożliwiający łączenie chmur punktów otrzymanych z kamery Kinect. Działanie algorytmu oparte jest na dopasowaniu punktów charakterystycznych wykrytych w sekwencji obrazów, dopasowaniu wykrytych znaczników do elementów zapamiętanych w poprzedniej chmurze punktów, połączeniu chmur punktów i określeniu położenia robota. W pracy przedstawiono wyniki przeprowadzonych eksperymentów w otoczeniu typu wnętrze pomieszczenia. Opisywany w tej pracy algorytm jest rozwinięciem algorytmu opisywanego w pracy [8] i jest jednym z elementów składowych systemu nawigacyjnego budowanego na wydziale Mechatroniki PW robota Kurier.
EN
The paper presents an algorithm which allows the registration of point clouds obtained from Kinect sensor. The algorithm consists of the following steps: keypoins detection, corresponding points matching, point cloud registration. The experiments have been performed in an office environment. The method is an extantion of the algorithm presented in [8] and it is a part of navigation system of a mobile robot.
PL
Sterowanie robotem mobilnym jest podstawowym zagadnieniem w trakcie tworzenia projektu związanego z platformą mobilną. Najnowsze trendy wskazują, że w chwili obecnej najpowszechniej rozwijane są autonomiczne systemy sterowania ruchem. W artykule przedstawiono projekt naukowy, którego celem jest zbudowanie robota z zaimplementowaną całkowicie autonomiczną nawigacją. Końcowym założeniem projektu jest wdrożenie wyników badań do realnej aplikacji. Istotnym problemem, który dotyczy nawigacji jest planowanie trasy robota. Aby platforma mogła być wykorzystana w realnym środowisku z poruszającymi się obiektami dynamicznymi, należy je również uwzględnić w trakcie planowania trasy. W artykule dokonano porównania istniejących i proponowanych przez autorów rozwiązań planowania ścieżki. Projektując robota usługowego, który będzie mógł dzielić przestrzeń z ludźmi oraz obiektami dynamicznymi istotny jest także krótki czas reakcji na zmiany otoczenia. Problem ten rozwiązywany jest poprzez urównoleglenie mocy obliczeniowej komputera. Zaproponowaną technologią wykorzystaną w tym celu są obliczenia na procesorach graficznych GPU.
EN
The control of mobile robot is a fundamental and basic task. Nowadays, the most actual trends focus on autonomous control systems. This paper describes a scientific project, which main goal is fully autonomous navigation system, designed for new construction of mobile robot. Final stage of the project is real application. The significant problem of robot navigation is path planning, especially when mobile platform is predestinated to be used in a real environment enclosed with dynamic obstacles. Dynamic objects should be considered in the path planning algorithm. The navigation system of mobile robot, moving among people, should response with short reaction time for fast environment changes. In this paper authors present parallel computing implementation, in this case - with use of graphic processors (GPU).
12
PL
W artykule opisano zrobotyzowany system automatycznego badania jakości spawów. W nowoczesnym przemyśle petrochemicznym lub gazowym jednym z najistotniejszych czynników jest niezawodność i bezpieczeństwo działania instalacji. Uszkodzenia rurociągów lub reaktorów wiążą się z wysokimi kosztami przestojów i napraw lub, w skrajnych przypadkach, z możliwością katastrofy. Badania wykonywane są zazwyczaj przez wykwalifikowanych specjalistów, jednakże wspomaganie poprzez automatyzację tego procesu redukuje koszty i ryzyko popełnienia błędu oraz poprawia jakość wykonanego testu. System opisany w artykule opiera się na robocie mobilnym, służącym do przeprowadzania nieniszczących badań spoin techniką TOFD, opracowanym i wykonanym przez zespół B+R Materials Engineers Group z Warszawy. System umożliwia wykonywanie w pełni automatycznych pomiarów odcinków spawów. Robot wraz z głowicą pomiarową przemieszcza się, śledząc spoinę dzięki wykorzystaniu informacji z systemu wizyjnego. Rozwiązanie zostało zaimplementowane i przetestowane w rzeczywistym środowisku.
EN
This paper describes research towards the development of a robotic system for the automated welded joints testing. The tests are often carried out manually by skilled personnel. Automating the inspection process would reduce errors and associated costs. The system proposed in this paper is based on a mobile robot platform and is designed to carry ultrasonic sensors in order to scan welds for defects. The robot is equipped with vision system in order to detect the weld position. The fuzzy control system is used in order to control robot motion along the weld.
PL
W pracy omówiono metody określenia zmian położenia robota mobilnego w środowisku 3D. Przedstawiono dwie implementacje filtru cząsteczkowego, których celem jest przyśpieszenie obliczeń. Omówiono metodę, w której zmiana położenia i orientacji odbywa się oddzielnie oraz metodę wykorzystującą procesory graficzne w algorytmie lokalizacji.
EN
In the article the overview of localization methods is presented. Two modifications of particle filter algorithm are described. In the first approach the position and orientation of the mobile robot are determined separately. In second method parallel processing units are used. Both methods allow us to speedup the process of localization.
EN
In this article we present a navigation system of a mobile robot based on parallel calculations. It is assumed that the robot is equipped with a 3D laser range scanner. The system is essentially based on a dual grid-object, where labels are attached to detected objects (such maps can be used in navigation based on semantic information). We use a classical SMPA (Sense - Model - Plan - Act) architecture for navigation, however, some steps concerning object detection, planning and localization are parallelized in order to speed up the entire process. The CUDA (Compute Unified Device Architecture) technology allows us to execute our algorithms on many processing units with use of a inexpensive graphics card which makes it possible to apply the proposed navigation system in a real time.
EN
We describe a system allowing a mobile robot equipped with a 3D laser range finder to navigate in the indoor and outdoor environment. A global map of the environment is constructed, and the particle filter algorithm is used in order to accurately determine the position of the robot. Based on data from the laser only, the robot is able to recognize certain classes of objects like a floor, a door, a washbasin, or a wastebasket, and places like corridors or rooms. For complex objects, the recognition process is based on the Haar feature identification. When an object is detected and identified, its position is associated with the appropriate place in the global map, making it possible to give orders to the robot with the use of semantic labels, e.g., "go to the nearest wastebasket ". The obstaclefree path is generated using a Cellular Neural Network, accounting for travel costs with distance or ground quality. This path planning method is fast and in comparison with the potential field method it does not suffer from the local minima problem. We present some results of experiments performed in a real indoor environment.
PL
W poniższej pracy przedstawiono system nawigacyjny robota mobilnego. W procesie planowania trasy wykorzystuje się semantyczną wiedzę o otoczeniu. Robot wyposażony w skaner laserowy 3D analizuje otoczenie i przypisuje obserwowanym obiektom etykiety. Cel do którego robot ma dotrzeć jest wskazywany poprzez podanie nazwy obiektu. Możemy więc wydać polecenie typu jedź do ściany, do drzwi, czy też umywalki. Zastosowano hybrydową rastrowo-obiektową reprezentację otoczenia. W procesie planowania trasy zastosowano sieci komórkowe.
EN
In this article we present a system which allows a mobile robot to navigate in an outdoor or indoor environment. Data obtained from a 3D laser range finder is analyzed and semantic labels are attached to the detected objects. The dual grid based and semantic map is built. The obstacle-free path is generated using a Cellular Neural Network. The goal for the robot is given using semantic labels. When the same label is attached to many objects the cheapest path is found. The path planning method is fast and allows taking into account various features of the environment and types of robots. In comparison to the potential field method the algorithm proposed in this paper does not suffer from local minima problem. The experiments were performed in real indoor and outdoor environments.
PL
W artykule przedstawiono system wspomagający prace operatora zdalnie kontrolowanego pojazdu poprzez wizualizację najbliższego otoczenia jako mapy wysokości przeszkód. Informacje o otoczeniu zbierane są za pomocą dalmierzy laserowych 2D dokonujących pomiaru w jednej płaszczyźnie, dane dotyczące umiejscowienia i przechyłów pojazdu dostarczają inklinometr, radarowy czujnik prędkości oraz moduł GPS. Na podstawie przemieszczania się pojazdu możliwa jest pełna rekonstrukcja środowiska, przy założeniu że jest ono całkowicie statyczne. Przedstawiono wyniki budowania mapy 2,5D dla trzech różnych środowisk: garażu podziemnego, przejazdu między budynkami i parkingu samochodowego.
EN
We present a system designed to support remote controlled vehicle operation. It is done by visualizing height of obstacles surrounding the vehicle as a color map. Information about the environment is collected by 2D laser rage finders, the vehicle state is known from the following devices: inclinometer, radar velocity measuring device, and GPS. Based on information about the vehicle movement, it is possible to reconstruct 2.5D map of the environment, provided that this environment is static, i.e., obstacles are not moving. The results are presented for seans obtained in: a large underground garage, on a street surrounded by building, and on a parking area.
PL
W pracy przedstawiono wyniki badania powierzchni, po której przemieszcza się robot mobilny. Dane uzyskiwane są ze skanera laserowego 3D, zmieniany jest sposób reprezentacji - z biegunowej na kartezjańską. W kolejnym kroku dane 3D są zamieniane na kolorowy obraz 2D, który jest następnie poddawany procesom segmentacji i analizy. Klasyfikacja danych pomiarowych 3D jest przeprowadzana na podstawie wyników analizy obrazów i informacji metrycznej. Wyodrębniono następujące rodzaje powierzchni w pomieszczeniach zamkniętych: podłoga, schody, podesty, progi oraz powierzchnie typu trawa i chodnik, które znajdują się na zewnątrz budynków. Testy przeprowadzono w rzeczywistym środowisku przy pomocy robota Elektron z zamontowanym dalmierzem laserowym 3D.
EN
The paper presents the results of 3D data classification. The data obtained from 3D laser are transformed from the polar to the Cartesian coordinate system. The data is represented as a colored image. Then the image is analyzed. The classification of 3D data is performed based on the result of image segmentation and metric information. The experiments were performed in indoor and outdoor environments. The following objects were classified successfully: floor, stairs, grass, sideway.
PL
W pracy zaprezentowano zastosowanie algorytmów ICP (Iterative Closest Point) i algorytmu SIFT w lokalizacji robota mobilnego. W prowadzonych pracach przyjęto założenie, że robot przemieszcza się w przestrzeni 3D i jest wyposażony w skaner laserowy 3D. Klasyczny algorytm ICP jest czasochłonny, ale połączenie go z algorytmem SIFT znacząco zmniejsza czas obliczeń i jednocześnie zapewnia porównywalną dokładność wyniku. Ponieważ metoda SIFT wymaga zapisywania danych w postaci obrazu zaproponowano kilka metod przekształcenia skanu 3D do obrazu i przetestowano wpływ danej metody na poprawność oraz czas obliczeń.
EN
In this paper the applications of ICP (Iterative Closest Point) algorithm and SIFT algorithm for mobile robot localization are presented. It is assumed that the robot is equipped with 3D laser range scanner and it acts in 3D space. Classical ICP method is time consuming but using SIFT methods for features detection makes the process of localization more effective. Before the process of localization starts the 3D data are transformed into 2D image. In the paper a few method of data transformation are presented. The influence of data transformation in process classification is presented in the paper.
PL
Celem pracy jest przedstawienie właściwości kamery metrycznej O3D201 i możliwość jej zastosowania w nawigacji robotów mobilnych. Określono parametry kamery: zasięg, dokładność oraz wpływ rodzaju powierzchni na osiągnięte wyniki. Opisano algorytm określenia kąta uchylenia drzwi na podstawie wskazań kamery. Przedstawiono wyniki przeprowadzonych eksperymentów.
EN
The aim of the paper is to present the application of the metric camera O3D201 in mobile robot navigation. In the paper the following parameters of the camera are described: the range of measurements, the accuracy, the influence of an environment to obtained data. In the second part of the paper the algorithm which allows us to analyzed the data is presented. The algorithm determines the angle between the door and the wall.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.