PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Object detection algorithm in a navigation systemfor a rescue drone

Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Algorytm wykrywania obiektów w systemie nawigacji drona ratowniczego
Języki publikacji
EN
Abstrakty
EN
This article focuses on improving object recognition algorithms for rescue drones, in particular, enhancing the methodology for classifying human poses by expanding the set of key body points and using more effective mathematical models. A methodology is proposed that analyzes 11 key body points, enabling the classification of human positions (standing, lying down, sitting, kneeling, bent) with greater accuracy. Additionally, a gesture recognition algorithm is proposed, detecting gestures such as arm-waving as a signal for help, which increases the effectiveness of rescue operations.The paper also considers the possibilities of implementing the system on the limited hardware resources of onboard UAV computers. Using geometric relationships between body points reduces computational costs without sacrificing accuracy, making the proposed model suitable for real-world use.The conducted research confirms that the improved system can automatically assess victims’ conditions, prioritize rescue efforts, and optimize drone navigation. In future work, it is planned to integrate the algorithms with drones’ multisensory systems and test them in real-world conditions.
PL
Niniejszy artykuł koncentruje się na udoskonaleniu algorytmów rozpoznawania obiektów w dronach ratowniczych, w szczególnościna ulepszeniu metodologii klasyfikacji pozy człowieka poprzez rozszerzenie zestawu kluczowych punktów ciałaoraz zastosowanie bardziej efektywnych modeli matematycznych. Zaproponowano metodykę analizującą 11 kluczowych punktów ciała, która umożliwia dokładniejszą klasyfikację pozycji człowieka (stojąca, leżąca, siedząca, klęcząca, zgięta). Ponadto zaproponowanoalgorytm rozpoznawania gestów –wykrywanie takich sygnałówjak machanie ręką jako wezwanie pomocy –co zwiększa skuteczność akcji ratowniczych.W artykule rozważono również możliwości wdrożenia systemu przy ograniczonych zasobach sprzętowych komputerów pokładowych UAV. Wykorzystanie zależności geometrycznych między punktami ciała obniża koszty obliczeniowebez utraty dokładności, dzięki czemu proponowany model nadaje się do zastosowań w warunkach rzeczywistych. Przeprowadzone badania potwierdzają, że ulepszony system może automatycznie oceniać stan poszkodowanych, ustalać priorytety działań ratowniczych oraz optymalizować nawigację drona.W przyszłych pracach planuje się integrację algorytmów z wielosensorowymi systemami dronów oraz przeprowadzenie testóww warunkach rzeczywistych.
Rocznik
Strony
32--36
Opis fizyczny
Bibliogr. 17 poz., fot., tab., wykr.
Twórcy
  • National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", Department of Computer-Integrated Technologies of Device Production, Facultyof Instrumentation Engineering, Kyiv, Ukraine
  • National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", Department of Computer-Integrated Technologies of Device Production, Facultyof Instrumentation Engineering, Kyiv, Ukraine
  • National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", Department of Computer-Integrated Technologies of Device Production, Facultyof Instrumentation Engineering, Kyiv, Ukraine
  • National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", Department of Aircraft Manufacturing Engineering of the Education Research Institute of Mechanical Engineering, Kyiv, Ukraine
Bibliografia
  • [1] Arafat M. Y., Alam M. M., Moh S.: Vision-Based Navigation Techniques for Unmanned Aerial Vehicles: Review and Challenges. Drones 7(2), 2023, 89 [https://doi.org/10.3390/drones7020089].
  • [2] Arai T., et al.: Estimation of Human Condition at Disaster Site Using Aerial Drone Images. Computer Vision and Pattern Recognition, Aug. 2023. arXiv, arxiv.org/abs/2308.04535. tracking.
  • [3] Bazarevsky V., et al.: BlazePose: On-device Real-time Body Pose 2020, arXiv preprint arXiv:2006.10204 [https://doi.org/10.48550/arXiv.2006.10204].
  • [4] Bezugla N., et al.: Fundamentals of Determination of the Biological Tissue Refractive Index by Ellipsoidal Reflector Method. Photonics, 11(9), 2024, 828 [https://doi.org/10.3390/photonics11090828].
  • [5] Eisenbeiss H., et al.: A Mini Unmanned Aerial Vehicle (UAV): System Overview and Image Acquisition. International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences 36(5/W1), 2004, 1–7 [http://www.isprs.org/proceedings/xxxvi/5-w1/papers/11.pdf].
  • [6] Girshick R., et al.: Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. IEEE Conference on Computer Vision and Pattern Recognition, Columbus, OH, USA, 2014, 580–587 [https://doi.org/10.1109/CVPR.2014.81].
  • [7] Khan A., et al.: A Survey of the Recent Architectures of Deep Convolutional Neural Networks. Artificial Intelligence Review 53, 2020, 5455–5516.
  • [8] Lee W., et al.: Deep Neural Networks for Wild Fire Detection with Unmanned Aerial Vehicle. IEEE International Conference on Consumer Electronics (ICCE), 2017, 252–253 [https://doi.org/10.1109/ICCE.2017.7889305].
  • [9] Levshchanov S.: Application of Unmanned Aerial Vehicles in the Construction Industry. Technical Sciences and Technologies 2(36), 2024, 297–802 [https://doi.org/10.25140/2411-5363-2024-2(36)-297-302].
  • [10] Liu W., et al.: SSD: Single Shot MultiBox Detector. Computer Vision – ECCV 2016. Lecture Notes in Computer Science 9905, 2016, 21–37. [https://doi.org/10.1007/978-3-319-46448-0_2].
  • [11] Lugaresi C., et al.: MediaPipe: A Framework for Building Perception Pipelines. 2019, arXiv preprint arXiv:1906.08172 [https://doi.org/10.48550/arXiv.2006.10204].
  • [12] Papyan N., et al.: AI-based Drone Assisted Human Rescue in Disaster Environments: Challenges and Opportunities. Computer Science – Sound 22, 2024, arXiv, arxiv.org/abs/2406.15875.
  • [13] Pérez M., et al.: Unmanned Aerial Vehicle (UAV) Path Planning and Control Assisted by Augmented Reality. International Journal of Production Research 61(1), 2023, 1–20.
  • [14] Sharma J., et al.: Deep Convolutional Neural Networks for Fire Detection in Images. 18th International Conference Engineering Applications of Neural Networks – EANN 2017, Athens, Greece, Aug. 2017, 25–27.
  • [15] Stelmakh N., et al.: Application of ResNet-152 Neural Networks to Analyze Images from UAV for Fire Detection. Informatyka, Automatyka, Pomiary w Gospodarce i Ochronie Środowiska 14(2), 77–82 [https://doi.org/10.35784/iapgos.5862]. Air
  • [16] Villa T. F., et al.: An Overview of Small Unmanned Aerial Vehicles for Quality Measurements. Sensors 16(7), 2016, 1072 [https://doi.org/10.3390/s16071072].
  • [17] Zhang L., et al.: Is Faster R-CNN Doing Well for Pedestrian Detection. 14th European Conference Computer Vision–ECCV 2016, Amsterdam, Netherlands, 11-14 Oct. 2016, 443–457.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-17ca28a6-1e69-4660-848b-9d25c153c67d
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.