Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 10

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  obstacle detection
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W artykule przedstawiono model systemu detekcji przeszkód i mapowania środowiska, bazujący na przetwarzaniu obrazowym w czasie rzeczywistym, przeznaczony dla autonomicznego pojazdu podwodnego. Model został zrealizowany w oparciu o parametry pracy rzeczywistego sonaru z mechanicznym przestawianiem wiązki Tritech Micron Sonar. Działanie systemu detekcji zostało zweryfikowane z wykorzystaniem matematycznego modelu autonomicznego pojazdu podwodnego poruszającego się w środowisku podwodnym wyrażonym mapą testową przygotowaną na bazie rzeczywistych pomiarów zrealizowanych za pomocą ww. sonaru. Model systemu pozwala wykrywać i zapisywać w postaci mapy, przeszkody znajdujące się w polu widzenia sonaru w czasie rzeczywistym.
EN
This article presents a real-time model of an obstacle detection and environmental mapping system based on image processing for an autonomous underwater vehicle (AUV). The model was based on Tritech Micron Sonar operating parameters with mechanical beam adjustment. The operation of the detection system was verified using a mathematical model of an autonomous underwater vehicle moving in the underwater environment, expressed by a test map prepared based on actual measurements of the above-mentioned sonar. The system model allows for detecting and mapping obstacles in the sonar’s field of view in real-time.
EN
Autonomous ground vehicles (AGV) have great potential for a wide range of applications, both in the civilian and military fields. Nowadays there is an interest in converting existing off-road vehicles into remotely controlled platforms with autonomous mode due to several benefits, including reducing the risk to human life, increasing efficiency and accuracy, and allowing the vehicles to operate in hazardous zones. Environmental perception technology plays a critical role in enabling the safe and effective operation during unmanned missions. This technology involves sensors, cameras, and other devices to gather information about the environment and provide the unmanned ground platform (UGV) with a perception of its surroundings. In recent years, there has been significant progress in the development of environmental perception systems, including the use of advanced sensors, machine learning algorithms, and other innovations have become a focus of research and development for many countries. This paper describes a combination of commercially available vision sensors, laser scanners and navigation modules for comprehensive understanding of operational environment, orientation, objects recognition during autonomous mode. Typical methods for vision and lidar-based obstacle detection and object classification for unmanned vehicles are described. The aim of the work was to examine in real environment the performance of a perception system that was configured using a daylight-thermal observation and stereo cameras, lidar sensor, GNSS module, radio links along with computing units. This system was evaluated in terms of performance of different sensors considering implementation for all terrain vehicle as subsystem for unmanned mode.
PL
Pojazdy (AGV) mają ogromny potencjał pod kątem szerokiego spektrum zastosowań, zarówno na rynku cywilnym, jak i wojskowym. Konwersja pojazdów terenowych w zdalnie sterowane platformy z trybem autonomicznym wzbudza duże zainteresowanie ze względu na szereg korzyści takich jak: zmniejszenie zagrożenia życia ludzkiego, zwiększenie wydajności i dokładności oraz umożliwienie poruszania się pojazdów w strefach niebezpiecznych. Systemy analizy otoczenia odgrywa kluczową rolę pod kątem bezpiecznego i efektywnej realizacji misji bezzałogowych. Układy percepcji obejmują: czujniki, kamery i inne urządzenia umożliwiające pozyskanie informacji o otoczeniu i dostarczenie danych o środowisku operacyjnym bezzałogowej platformie naziemnej (UGV). W ostatnich latach obserwuje się znaczny postęp technologiczny w dziedzinie systemów percepcji otoczenia, a w szczególności zaawansowanych czujników, algorytmów uczenia maszynowego i innych innowacyjnych rozwiązań, które stały się przedmiotem badań i rozwoju wielu krajów. W artykule opisano wykorzystanie dostępnych na rynku czujników wizyjnych, skanerów laserowych i modułów nawigacyjnych w celu pełnego zobrazowania środowiska operacyjnego, lokalizacji oraz rozpoznawania obiektów w trybie autonomicznego przejazdu. Opisano typowe metody wykrywania przeszkód i klasyfikacji obiektów na podstawie systemów wizyjnych oraz skanerów laserowych instalowanych w pojazdach bezzałogowych. Celem pracy było zbadanie, w warunkach rzeczywistych, działania systemu percepcyjnego skonfigurowanego z wykorzystaniem kamery termowizyjnej i stereoskopowej, lidaru, modułu GNSS, modułów radiowych wraz z jednostkami obliczeniowymi. System ten został zweryfikowany pod kątem użyteczności informacji pozyskiwanych z poszczególnych typów sensorów na potrzebny realizacji trybu bezzałogowego przez pojazdy terenowe.
3
PL
W artykule przedstawiono analizę możliwości i ograniczeń wykorzystania czujnika LiDAR do monitorowania otoczenia. Omówiono zasadę działania skanera laserowego służącego do mapowania środowiska 2D oraz na przykładzie modułu SLAMTEC RPLIDAR A1M8, przedstawiono istotne parametry, które należy uwzględnić przy projektowaniu systemu przeznaczonego do obserwacji środowiska. Przeprowadzono eksperymenty sprawdzające poprawność pomiaru odległości oraz zależności przestrzennych obiektów w różnych konfiguracjach.
EN
The article presents an analysis of the possibilities and limitations of using the LiDAR sensor to monitor the environment. The principle of operation of a laser scanner used to map the 2D environment was discussed based on SLAMTEC RPLIDAR A1M8 module to present important parameters that should be taken into account when designing a system intended for environmental observation. Experiments were carried out to verify the correctness of measuring distances and spatial relationships of objects in various configurations.
EN
ToF (Time of Flight) sensors have been gaining popularity in recent times as a cheap and accurate way to take distance measurements. They may prove to be a key component of obstacle detection systems in the near future. This paper presents a stepper motor system with two measurement modules containing ToF sensors. The results of distance measurements made with these modules relative to a flat surface for different sensor modes are presented. Standard deviations were determined for the measurement results and a polynomial fitting was performed using the linear least squares method. The results were used to select the sensor for further work in terms of its use in an obstacle detection system.
PL
Czujniki ToF w ostatnich czasach zdobywają popularność jako tani i dokładny sposób na dokonanie pomiarów odległości. W niedalekiej przyszłości mogą okazać się kluczowym komponentem systemów detekcji przeszkód. W ramach niniejszego artykułu przedstawiono układ z silnikiem krokowym na którym zainstalowano dwa moduły pomiarowe zawierające czujniki ToF. Zaprezentowano wyniki pomiarów odległości przeprowadzonych przy użyciu tych modułów względem płaskiej powierzchni dla różnych trybów działania czujników. Dla wyników pomiarów wyznaczono odchylenia standardowe oraz dokonano dopasowania wielomianu za pomocą liniowej metody najmniejszych kwadratów. Wyniki posłużyły do doboru czujnika do dalszych prac pod kątem jego wykorzystania w systemie detekcji przeszkód.
EN
The paper presents the simple algorithm of simultaneous localisation and mapping (SLAM) without odometry information. The proposed algorithm is based only on scanning laser range finder. The theoretical foundations of the proposed method are presented. The most important element of the work is the experimental research. The research underlying the paper encompasses several tests, which were carried out to build the environment map to be navigated by the mobile robot in conjunction with the trajectory planning algorithm and obstacle avoidance.
EN
Blind people all over the world use only white sticks to avoid obstacles, holes and other dangerous objects. There are some navigational systems for blind people, including the ones that employ stereoscopic images, but none of them provides a high reliability. The hybrid system presented in this paper uses a laser range finder as a 3D scanner and a camera feed to create a highly reliable and accurate 3D model of surroundings to improve an obstacle detection, objects recognition, image processing and blind people navigation, which can work with a reduced functionality even in dark places.
PL
Osoby niewidome na całym świecie używają białej laski do wykrywania i omijania przeszkód, dziur oraz niebezpiecznych obiektów. Istnieje kilka systemów nawigacyjnych dla osób niewidomych i słabowidzących, wliczając te, które używają techniki obrazowania stereoskopowego, lecz żaden z tych systemów nie zapewnia dostatecznego poziomu niezawodności. Prezentowany w tym artykule hybrydowy system wykorzystuje dalmierz laserowy do stworzenia trójwymiarowego modelu otoczenia oraz obraz z kamery tak, aby stworzyć bardziej rzetelny trójwymiarowy model otoczenia oraz poprawić możliwości wykrywania obiektów, ich rozpoznawania, przetwarzania sygnałów oraz nawigacji osób niewidomych. Przedstawiony model umożliwia również pracę w ciemnych pomieszczeniach przy zachowaniu zredukowanej funkcjonalności.
EN
This article highlights the main challenges and constrains concerning computer vision based navigation systems. A few special conditions in which the systems have to work are pointed out. Different approaches to sense the surrounding environment are reviewed. Finally, the navigation system which incorporates two computer vision techniques: time of flight and stereovision is proposed.
PL
W referacie przedstawiono wyniki prac doświadczalnych nakierowanych na wykrywanie zielonej roślinności i przeszkód wodnych w otoczeniu pojazdu bezzałogowego. Do wykrywania roślinności stosowano analizę obrazów wideo poprzez dokonanie ich segmentacji, klasyfikacji obiektów i segmentację poprzez zastosowanie działu wodnego. Do wykrywania przeszkód wodnych wykorzystywano kamery kolorowe i LADAR.s.
EN
Results experimental research focusing on detect vegetation and water obstacles in surroundings of unmanned vehicle are presented. To detect vegetation analysis video images through their segmentation, objects classification, and segmentation through watershed using is applying. To water obstacles detect color video camera and laser telemeter are used.
PL
Detekcja przeszkód i monitorowanie obciążenia silnika w systemach napędzanych silnikami krokowymi wymagała zawsze stosowania dodatkowych czujników, co powodowało wzrost ceny i skomplikowania systemu. Niemiecka firma TRINAMIC proponuje rozwiązanie tego problemu, wprowadzając na rynek serię mikrokrokowych kontrolerów silników krokowych z zaimplementowanym opatentowanym mechanizmem StallGuard. Mechanizm ten pozwala na wykrywanie przeszkód i pomiar obciążenia silnika bez jakichkolwiek czujników. Czujnikiem dla StallGuard staje się sam silnik krokowy!
10
Content available remote Adaptive methods of moving car detection in monocular image sequences
EN
Computer vision applications for traffic scene analysis and autonomous navigation (driver support) require highly sophisticated sensors and computation method- they constitute a real challenge for image analysis systems. Common to bith applications is the moving object detection/tracking task. In this paper we study this task on four different data abstraction levels: image segmentation, 2-D object tracking, model-based 3-D object tracking and many-object traffic scene description. Two meanings of the term "adaptive" are considered: learning algorithm or connectionist systems and recursive estimation for dynamic systems. Generally the firts approach may be appled for low- and segmentation-level analysis of finite image seguences, whereas the second approach for 2-D and 3-D object tracking and estimation.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.