Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 28

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  ROS
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
This paper presents the concept of a remotely controlled mobile robot that generates a two-dimensional map of its surroundings. The hardware platform developed relies on the LINUX operating system with the Robot Operating System (ROS) to function properly. The authors focused on discussing the robot's hardware and presenting the software used. In line with the assumptions made, the robot is capable of generating a two-dimensional digital map of its surroundings, as well as of recording images of those surroundings. The robot relies on lidar odometry for identifying its position, meaning that the developed algorithm calculates the vehicle's location based on data from a laser scanner. The main sources of environment-related information acquired by the robot include the following: RPLidar A3M1 laser scanner by Slamtec (generating a digital map) and a 5mpx HD OV5647 camera (capturing images of the surroundings). These devices are coupled with the Raspberry Pi 3B on-board computer via a CSI interface.
PL
W artykule przedstawiono koncepcję zdalnie sterowanego robota mobilnego, generującego dwuwymiarową mapę otoczenia. Opracowana platforma sprzętowa do poprawnego funkcjonowania wykorzystuje system operacyjny LINUX z systemem Robot Operating System (ROS). Autorzy skupili się na omówieniu struktury sprzętowej robota oraz przedstawieniu zaimplementowanego oprogramowania. Zgodnie z przyjętymi założeniami wykonany robot umożliwia generowanie dwuwymiarowej cyfrowej mapy otoczenia i rejestrację obrazu otoczenia. Do lokalizacji w przestrzeni, robot wykorzystuje odometrię lidarową, co oznacza że opracowany algorytm wylicza położenie pojazdu na podstawie danych pochodzących ze skanera laserowego. Głównymi źródłami informacji pozyskiwanych przez robota z otoczenia są: skaner laserowy RPLidar A3M1 firmy Slamtec (generowanie mapy cyfrowej) oraz kamera HD OV5647 o rozdzielczości 5mpx (rejestracja obrazu otoczenia). Urządzenia te współpracują z komputerem pokładowym Raspberry Pi 3B za pomocą złącza CSI.
EN
The Direct Sparse Odometry (DSO) technique is a new form of visual odometry that makes use of a direct and sparse structure to achieve precision. In this project, the objective is to apply the DSO algorithm on the Unmanned Aerial Vehicle (UAV) application. The main studies in this project are focusing on the experimentation for DSO algorithm parameter setting. Another objective is to evaluate the parameter and performance of DSO algorithm. The data evaluation was based on three different environments in the university campus. In this project, the Realsense D435i camera was applied to the RDDRONE-FMUK66 with interface of the Raspberry Pi 3 B+ model to capture the data. This project managed to analyze suitable point values on the active points and gradient parameter setting. The same parameter configuration which concerns on point density and keyframe management have been experimented in the three environment. From this project it is concluded that DSO on UAV can be improved in order to gain a stable data processing to be applied in the algorithm.
PL
Technika Direct Sparse Odometry (DSO) to nowa forma wizualnej odometrii, która wykorzystuje bezpośrednią i rzadką strukturę w celu osiągnięcia precyzji. W tym projekcie celem jest zastosowanie algorytmu DSO w aplikacji Bezzałogowego Statku Powietrznego (UAV). Główne badania w tym projekcie koncentrują się na eksperymentach dotyczących ustawiania parametrów algorytmu DSO. Kolejnym celem jest ocena parametrów i wydajności algorytmu DSO. Ocena danych została oparta na trzech różnych środowiskach w kampusie uniwersyteckim. W tym projekcie kamera Realsense D435i została zastosowana do RDDRONE-FMUK66 z interfejsem modelu Raspberry Pi 3 B+ do przechwytywania danych. W ramach tego projektu udało się przeanalizować odpowiednie wartości punktów w aktywnych punktach i ustawienia parametrów gradientu. Ta sama konfiguracja parametrów, która dotyczy gęstości punktów i zarządzania klatkami kluczowymi, została przetestowana w trzech środowiskach. Z tego projektu wynika, że DSO na UAV można udoskonalić w celu uzyskania stabilnego przetwarzania danych do zastosowania w algorytmie.
PL
Uczenie przez wzmacnianie ma coraz większe znaczenie w sterowaniu robotami, a symulacja odgrywa w tym procesie kluczową rolę. W obszarze bezzałogowych statków powietrznych (BSP, w tym dronów) obserwujemy wzrost liczby publikowanych prac naukowych zajmujących się tym zagadnieniem i wykorzystujących wspomniane podejście. W artykule omówiono opracowany system autonomicznego sterowania dronem, który ma za zadanie lecieć w zadanym kierunku (zgodnie z przyjętym układem odniesienia) i omijać napotykane w lesie drzewa na podstawie odczytów z obrotowego sensora LiDAR. Do jego przygotowania wykorzystano algorytm Proximal Policy Optimization (PPO), stanowiący przykład uczenia przez wzmacnianie (ang. reinforcement learning, RL). Do realizacji tego celu opracowano własny symulator w języku Python. Przy testach uzyskanego algorytmu sterowania wykorzystano również środowisko Gazebo, zintegrowane z Robot Operating System (ROS). Rozwiązanie zaimplementowano w układzie eGPU Nvidia Jetson Nano i przeprowadzono testy w rzeczywistości. Podczas nich dron skutecznie zrealizował postawione zadania i był w stanie w powtarzalny sposób omijać drzewa podczas przelotu przez las.
EN
Reinforcement learning is of increasing importance in the field of robot control and simulation plays a key role in this process. In the unmanned aerial vehicles (UAVs, drones), there is also an increase in the number of published scientific papers involving this approach. In this work, an autonomous drone control system was prepared to fly forward (according to its coordinates system) and pass the trees encountered in the forest based on the data from a rotating LiDAR sensor. The Proximal Policy Optimization (PPO) algorithm, an example of reinforcement learning (RL), was used to prepare it. A custom simulator in the Python language was developed for this purpose. The Gazebo environment, integrated with the Robot Operating System (ROS), was also used to test the resulting control algorithm. Finally, the prepared solution was implemented in the Nvidia Jetson Nano eGPU and verified in the real tests scenarios. During them, the drone successfully completed the set task and was able to repeatable avoid trees and fly through the forest.
EN
This paper presents a model to generate a 3D model of a room, where room mapping is very necessary to find out the existing real conditions, where this modeling will be applied to the rescue robot. To solve this problem, researchers made a breakthrough by creating a 3D room mapping system. The mapping system and 3D model making carried out in this study are to utilize the camera Kinect and Rviz on the ROS. The camera takes a picture of the area around it, the imagery results are processed in the ROS system, the processing carried out includes several nodes and topics in the ROS which later the signal results are sent and displayed on the Rviz ROS. From the results of the tests that have been carried out, the designed system can create a 3D model from the Kinect camera capture by utilizing the Rviz function on the ROS. From this model later every corner of the room can be mapped and modeled in 3D.
5
Content available remote An efficient fuzzy pi approach to real-time control of a ros-based mobile robot
EN
This paper presents the implementation and experimental validation of a fuzzy PI control framework on a Turtlebot Kobuki. Due to the robot complex kinematic model structure, we first designe a guidance law to overcome computational challenges that could become problematic under real time control, further experimentation tryals evoked the need for a robust solution which was introduced through an integral action of the PI controller cascaded into the Fuzzy controller. Control performance analysis were carried out in a real experimental setup in order to validate the effectiveness of the proposed scheme.
PL
Ten artykuł przedstawia implementację i eksperymentalną walidację rozmytej struktury kontroli PI na Turtlebot Kobuki. Ze względu na złożoną strukturę modelu kinematycznego robota, najpierw opracowaliśmy prawo przewodnie, aby przezwyciężyć wyzwania obliczeniowe, które mogą stać się problematyczne przy sterowaniu w czasie rzeczywistym. do kontrolera Fuzzy. Analizę działania sterowania przeprowadzono w rzeczywistym układzie doświadczalnym w celu sprawdzenia skuteczności proponowanego schematu.
EN
This article provides a simulation and laboratory study of a control system for a two-wheeled differential-drive mobile robot with ROS system. The authors propose an approach to designing a control system based on a parametric model of the robot’s dynamics. The values of unknown parameters of the dynamic model have been determined by means of a Levenberg-Marguardt identification method. By comparing the desired trajectories with those obtained from simulation and laboratory tests, and based on errors analysis, the correctness of the model parameter identification process and the control system operation was then determined.
PL
W artykule przedstawiono badania symulacyjne i laboratoryjne systemu sterowania dwukołowym robotem mobilnym o napędzie różnicowym, z systemem ROS. Autorzy zaproponowali podejście projektowania systemu sterowania w oparciu o parametryczny model dynamiki robota. Wartości nieznanych parametrów modelu dynamiki wyznaczono przeprowadzając ich identyfikację metodą Levenberga-Marguardta. Następnie porównując trajektorie zadane z otrzymanymi na drodze badań symulacyjnych i laboratoryjnych, a także na podstawie analizy uchybów określono poprawność procesu identyfikacji parametrów modelu i działania systemu sterowania.
EN
This article presents the concept of an autonomous mobile robot running on the ROS system and using advanced algorithms for 2D map generation and autonomous navigation. The authors focused on presenting the hardware platform, the Linux-based software and the Robot Operating System (ROS) platform. This article also introduces an algorithm that provides the generation of a 2D map of the surroundings, autonomous robot driving and remote control of the device. Measurements of the temperature of the computer helped in the decision on which cooling system to use.
PL
W artykule przedstawiono koncepcję autonomicznego robota mobilnego pracującego w systemie ROS i wykorzystującego zaawansowane algorytmy do generacji dwuwymiarowej mapy oraz autonomicznej nawigacji. Autorzy skupili się na przedstawieniu platformy sprzętowej urządzenia oraz na zaimplementowanym oprogramowaniu opartym na systemie LINUX oraz platformie Robot Operating System (ROS). W artykule zaprezentowano również algorytm realizujący generację dwuwymiarowej mapy otoczenia, autonomiczną jazdę robota oraz zdalne sterowanie urządzeniem. Wykonane pomiary temperatury komputera pozwoliły na podjęcie decyzji dotyczącej zastosowanego układu chłodzenia.
EN
Introduction: Proton beam radiotherapy is an advanced cancer treatment technique, which would reduce the effects of radiation on the surrounding healthy cells. The usage of radiosensitizers in this technique might further elevate the radiation dose towards the cancer cells. Material and methods: The present study investigated the production of intracellular reactive oxygen species (ROS) due to the presence of individual radiosensitizers, such as bismuth oxide nanoparticles (BiONPs), cisplatin (Cis) or baicalein-rich fraction (BRF) from Oroxylum indicum plant, as well as their combinations, such as BiONPs-Cis (BC), BiONPs-BRF (BB), or BiONPs-Cis-BRF (BCB), on HCT-116 colon cancer cells under proton beam radiotherapy. Results: It was found that the ROS in the presence of Cis at 3 Gy of radiation dose was the highest, followed by BC, BiONPs, BB, BRF, and BCB treatments. The properties of bismuth as a radical scavenger, as well as the BRF as a natural compound, might contribute to the lower intracellular ROS induction. The ROS in the presence of Cis and BC combination were also time-dependent and radiation dose-dependent. Conclusions: As the prospective alternatives to the Cis, the BC combination and individual BiONPs showed the capacities to be developed as radiosensitizers for proton beam therapy.
PL
Poniższy artykuł przedstawia wyzwania stawiane przed łazikami i zespołami startującymi w zawodach z serii Rover Challenge. Omawiane są najczęściej spotykane zadania podczas zawodów, ich cel, wymagania oraz potrzebne funkcjonalności oprogramowania umożliwiające poprawną i bezpieczną ich realizację w oparciu o metody dostarczane przez Robot Operating System. Niezawodność, bezpieczeństwo i prawidłowość działania wymaga również zastosowania odpowiedniego sprzętu i magistrali komunikacyjnych. W artykule omawiane są rozwiązania i argumenty stojące za wyborami dokonanymi przez zespół Scorpio.
EN
The following article presents the challenges faced by rovers and teams competing in the Rover Challenge series. The most common tasks during the competition are discussed, along with their purpose, requirements and needed software functionality to enable their correct and safe implementation based on methods provided by the Robot Operating System. Reliability, safety and correct operation also require the use of appropriate hardware and communication networks. The paper discusses the solutions and arguments behind the choices made by the Scorpio team.
EN
The development of an autonomous mobile robot (AMR) with an eye-in-hand robot arm atop for depressing elevator button is proposed. The AMR can construct maps and perform localization using the ORB-SLAM algorithm (the Oriented FAST [Features from Accelerated Segment Test] and Rotated BRIEF [Binary Robust Independent Elementary Features] feature detector-Simultaneous Localization and Mapping). It is also capable of real-time obstacle avoidance using information from 2D-LiDAR sensors. The AMR, robot manipulator, cameras, and sensors are all integrated under a robot operating system (ROS). In experimental investigation to dispatch the AMR to depress an elevator button, AMR navigation initiating from the laboratory is divided into three parts. First, the AMR initiated navigation using ORB-SLAM for most of the journey to a waypoint nearby the elevator. The resulting mean absolute error (MAE) is 8.5 cm on the x-axis, 10.8 cm on the y-axis, 9.2-degree rotation angle about the z-axis, and the linear displacement from the reference point is 15.1 cm. Next, the ORB-SLAM is replaced by an odometry-based 2D-SLAM method for further navigating the AMR from waypoint to a point facing the elevator between 1.5 to 3 meter distance, where the ORB-SLAM is ineffective due to sparse feature points for localization and where the elevator can be clearly detected by an eye-in-hand machine vision onboard the AMR. Finally, the machine vision identifies the position in space of the elevator and again the odometry-based 2D-SLAM method is employed for navigating the AMR to the front of the elevator between 0.3 to 0.5 meter distance. Only at this stage can the small elevator button be detected and reached by the robot arm on the AMR. An average 60% successful rate of button depressing by the AMR starting at the laboratory is obtained in the experiments. Improvements for successful elevator button depressing rate are also pointed out.
EN
This paper presents the development of an automated guided vehicle with omni-wheels for autonomous navigation under a robot operating system framework. Specifically, a laser rangefinder-constructed two-dimensional environment map is integrated with a three-dimensional point cloud map to achieve real-time robot positioning, using the oriented features from accelerated segment testing and a rotated binary robust independent elementary feature detector-simultaneous localization and mapping algorithm. In the path planning for autonomous navigation of the omnidirectional mobile robot, we applied the A* global path search algorithm, which uses a heuristic function to estimate the robot position difference and searches for the best direction. Moreover, we employed the time-elastic-band method for local path planning, which merges the time interval of two locations to realize time optimization for dynamic obstacle avoidance. The experimental results verified the effectiveness of the applied algorithms for the omni-wheeled mobile robot. Furthermore, the results showed a superior performance over the adaptive Monte Carlo localization for robot localization and dynamic window approach for local path planning.
12
Content available remote Component interface standardization in robotic systems
EN
Components are heavily used in many software systems, including robotic systems. The growth in sophistication and diversity of new capabilities for robotic systems presents new challenges to their architectures. Their complexity is growing exponentially with the advent of AI, smart sensors, and the complex tasks they have to accomplish. Such complexity requires a more flexible approach for creating, using, and interoperability of software components. The issue is exacerbated because robotic systems are becoming increasingly reliant on third-party components for specific functions. In order to achieve this kind of interoperability, including dynamic component replacement, we need a way to standardize their interfaces. A formal approach is desperately needed for specifying what an interface of a robotic software component should contain. This study performs an analysis of the issue and presents a universal and generic approach to standardizing component interfaces for robotic systems. Our approach is inspired and influenced by well-established robotic architectures such as ROS, PX4, and Ardupilot. The study is also applicable to other software systems with similar characteristics to robotic systems. We consider using either JSON or Domain-Specific Languages (DSL) development with tools such as Antlr and automatic code and configuration files generation for frameworks such as ROS and PX4. A case study with ROS2 has been done as a proof of concept for the proposed methodology.
EN
In this paper, a low cost mobile robot with a modular design that permits the easy change of the number of wheels is considered for generation of 3D digital maps by using ROS tools and a 3D light detection and distance measurement (LiDAR) sensor. The modular robot is thought for travelling through several environments with saving the energy by changing the number and arrangement of the wheels according to the environment. The presented robot can construct a 3D map in particular structured environment and the running performance was investigated by an extensive characterization. Furthermore, in light of the experimental tests, a new simple algorithm based exclusively of the processing of the LiDAR data is proposed with the aim of characterizing the surrounding environment with fixed landmarks and mobile targets. Finally, the limits of this prototype and of the proposed algorithm have been analyzed, highlighting new improvements in the future perspective development for permitting an autonomous environment perception with a simple, modular and low-cost device.
PL
Celem pracy jest przedstawienie funkcjonalności i zasady działania oprogramowania do zarządzania misją robotów podczas zawodów ERL Emergency Robots 2017. Zastosowanie LabVIEW i Robot Operating System (ROS) umożliwiło wymianę komunikatów pomiędzy odległymi stacjami operatorskimi i koordynację pracy trzech różnego typu robotów realizujących wspólną misję. System umożliwia rejestrowanie czasu, położenia robotów, statusu zdarzeń oraz wizualizację pracy robotów, a także wygenerowanie plików kml/kmz będących logami misji, które pozwalają na późniejszą analizę i weryfikację pracy zespołu robotów.
EN
The objective of the paper is introduce functionality and principle of operation of software for managing the robot mission during ERL Emergency Robots 2017 competition. The use of Lab VIEW and Robot Operating System (ROS) enabled the exchange of messages between distant operator stations and the coordination of the work of three different types of robots performing a joint mission. The software allows recording time, robot location, status of events and robot tracking, as well as generating log files that can be converted to kml/kmz format.
EN
The main goal of this paper is to evaluate the effects of corporate governance system on Kazakhstani companies’ economic and financial performances following the ongoing economic sanctions against the Russian Federation. With the empirical study of the Corporate Governance disclosures of large Kazakhstani listed firms, we tested the hypothesized causal relationship between management ownership and other corporate governance variables and corporate financial performance indicators, such as ROA, ROE, ROS, and others. Based on correlation and regression analysis, we found that there is no reason to presume the strong relations between the analyzed variables. Moreover, we come to a conclusion that the sanctions only have an indirect influence at the Kazakhstani companies. Our findings indicate that the firms’ financial conditions might be mostly affected by other factors, such as the low oil and gas prices in world market.
PL
Głównym celem tego artykułu jest ocena wpływu systemu ładu korporacyjnego na gospodarcze i finansowe wyniki kazachskich firm w następstwie trwających sankcji gospodarczych wobec Federacji Rosyjskiej. Dzięki empirycznemu badaniu ujawnień dotyczących ładu korporacyjnego dużych kazachskich spółek giełdowych przetestowano hipotetyczny związek przyczynowy między własnością zarządu a innymi zmiennymi ładu korporacyjnego oraz wskaźnikami wyników finansowych przedsiębiorstw, takimi jak ROA, ROE, ROS i inne. Na podstawie analizy korelacji i regresji ustalono, że nie ma powodu zakładać silnych relacji między analizowanymi zmiennymi. Ponadto wywnioskowano, że sankcje mają jedynie pośredni wpływ na firmy kazachskie. Nasze wyniki wskazują, że na sytuację finansową firm największy wpływ mogą mieć inne czynniki, takie jak niskie ceny ropy i gazu na rynku światowym.
PL
Przedmiotem pracy badawczej jest symulator robota mobilnego Explorer 6WD, który uwzględnia stan pełnej zdatności oraz stany z uszkodzeniami. Omówiono elementy składowe symulatora robota oraz przedstawiono modele jego otoczenia, które zrealizowane są w środowisku V-REP. W ramach prac badawczych zaprojektowano i utworzono sieć ROS, która umożliwia integrację symulatora z modułami zewnętrznymi zrealizowanymi z wykorzystaniem środowiska MATLAB®/Simulink®. W tej części pracy objaśniono sposób komunikacji pomiędzy programami oraz omówiono strukturę i zawartość poszczególnych wiadomości. Scharakteryzowano modele uszkodzeń oraz przedstawiono interfejs użytkownika. W artykule zawarto również opis wybranych wyników badań weryfikacyjnych, które potwierdzają dużą przydatność opracowanego rozwiązania.
EN
The focus of the paper is on the simulator of the Explorer 6WD mobile robot taking into account faultless and faulty conditions. There are discussed the components of the mobile robot simulator and environment models which are implemented in the V-REP software. As a part of the research work, a ROS network has been designed and created, which enables integration of the simulator with external modules realized using the MATLAB®/ Simulink® environment. This part of the paper explains how to communicate between ROS nodes and discusses the structure and content of ROS messages. In the paper, fault models are characterized and a user interface is presented as well. This study also contains a description of selected results of verification tests that confirm the effectiveness of the developed approach.
EN
Service robots already take over some chores of our daily life, for example as autonomous vacuum cleaners or lawn mowing machines. In the near future it is expected that service robots can fully undertake many domestic tasks and assist in different operating places like restaurants, hospitals or industries. We have developed a cost effective prototype of a mobile service robot that can operate in indoor environments. The robot works under ROS and has a kinect sensor for vision and tracking. The robot maps the environment using SLAM and can navigate between locations avoiding permanent and temporary obstacles. Our objective is to deploy image processing algorithms and advanced decision making abilities using low computing power on the Robot. Using distributed ROS nodes the robot sends the image stream from its sensors to a server to be processed using deep learning algorithms. The results of the processing are sent back to the robot to guide its navigation and operations.
DE
Serviceroboter übernehmen schon heute einige Aufgaben des täglichen Lebens, zum Beispiel als autonome Staubsauger oder Rasenmäher. In naher Zukunft, so wird erwartet, werden Serviceroboter eine Vielzahl von Hausarbeiten erledigen und in verschieden Bereichen wie Restaurants, Krankenhäusern oder der Industrie eingesetzt werden. Wir haben einen kostengünstigen mobilen Prototypen eines Serviceroboters für den Innenbereich entwickelt. Der Roboter läuft unter ROS und verfügt über einen Kinekt-Sensor für maschinelles Sehen und Tracking. Der Roboter kartografiert die Umgebung mittels SLAM und navigiert zwischen Positionen und weicht dabei permanenten und temporären Hindernissen aus. Unser Ziel ist es Bildverarbeitungsalgorithmen und komplexe Entscheidungsprozesse für geringe Computerleistung im Roboter einzusetzen. Über verteilte ROS-Knoten sendet der Roboter den Videostream vom Sensor zum Server, wo er mit Deep Learning Algorithmen verarbeitet wird. Die Verarbeitungsergebnisse werden zum Roboter zurückgesendet um seine Navigation und Funktionen zu steuern.
EN
Robot Operating System (ROS) is an open source robot software framework which provides several libraries and tools to easily conduct different robot applications like autonomous navigation and robot teleoperation. Most of the available packages across the ROS community are addressed for controlling a single robot. In this paper, we aim to extend some packages so, they can be used in multi-robot applications on ROS. Mainly, the multi-robot autonomous navigation and multi-robot smart phone teleoperation are addressed in this work. After being extended and compiled, the new packages are assessed in some simulations and experiments with real robots.
PL
Otwarty system operacyjny ROS (Robot Operating System) udostępnia wiele bibliotek i narzędzi wspierających tworzenie aplikacji dla robotów (np.: autonomiczna nawigacja i telemetria). Przy czym większość opracowanych pakietów ROS umożliwia jedynie kontrolowanie pojedynczego robota. W artykule przedstawiono możliwości rozszerzenia wybranych pakietów, tak aby mogły być używane w aplikacjach wielorobotowych. Poruszono temat wielozadaniowej autonomicznej nawigacji i wielozadaniowej inteligentnej teleoperacji. W ramach prowadzonych prac rozszerzono możliwości pakietów, a ich funkcjonalność przedstawiono na przykładzie wybranych symulacji oraz testów przeprowadzonych z użyciem rzeczywistych robotów.
EN
Robotics has accomplished its greatest triumph to date in the world of industrial manufacturing and academia. This work aims to perform path planning using a KUKA (LWR/ LBR 4+) robot platform as well as a simulator to grasp the object. This whole implementation will be carried out in a ROS environment with Ubuntu (Linux) as an operating platform. The KUKA (LWR/ LBR 4+) has 7 degrees of freedom with several joints and linkages. It uses KR C2 LR as the main hardware controller. The robot gets visual information of an object by Microsoft Kinnect RGB-D camera and carries out necessary actions to clasp the object using a shadow hand and Barrett hand. The simulation and manipulation of robot gantry is performed by using C++ and python as a programming language. The bilateral robot platform and main PC hub are linked together by using Ethernet cable. The obtained results from the current research are found to be satisfactory and can be proven beneficial for researcher as a reference.
EN
The paper presents a set of soŌware tools dedicated to support mobile robot navigaƟon. The tools are used to process an image from a depth sensor. They are implemented in ROS framework and they are compaƟble with standard ROS navigaƟon packages. The soŌware is released with an open source licence. First of the tools converts a 3D depth image to a 2D scan in polar coordinates. It provides projecƟon of the obstacles, removes the ground plane from the image and compensates sensor Ɵlt angle. The node is faster than the standard node within ROS and it has addiƟonal funcƟons increasing range of possible applicaƟons. The second tool allows detecƟon of negaƟve obstacles i.e. located below the ground plane level. The third tool esƟmates height and orientaƟon of the sensor with RANSAC algorithm applied to the depth image. The paper presents also the results of usage of the tools with mobile plaƞorms equipped with MicrosoŌ Kinect sensors. The plaƞorms are elements of the ReMeDi project within which the soŌware was developed.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.