PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

YOLO object detection and classification using low-cost mobile robot

Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Wykrywanie i klasyfikacja obiektów YOLO przy użyciu niedrogiego robota mobilnego
Języki publikacji
EN
Abstrakty
EN
The article presents a study of object detection and classification methods based on deep learning YOLO (You Only Look Once) implemented on the on-board computer (Raspberry Pi 4B) of a mobile robot. The research was carried out using a mobile robot working with the ROS Noetic platform, equipped with LiDAR, Kinect and odometric sensors. During the operation of deep neural networks, the average precision of mAP detection and the computing power consumption of the central unit without a graphics processor were determined. The HTOP package was used to observe computational processes and the level of CPU computing power consumption in real time.
PL
W artykule przedstawiono badanie metod wykrywania i klasyfikacji obiektów opartych na głębokim uczeniu YOLO (You Only Look Once) zaimplementowanych na komputerze pokładowym (Raspberry Pi 4B) zbudowanego robota mobilnego. Badania przeprowadzono z wykorzystaniem robota mobilnego współpracującego z platformą ROS Noetic, wyposażonego w czujniki: LiDAR, Kinect i odometryczne. Podczas działania głębokich sieci neuronowych określono średnią precyzję wykrywania mAP oraz zużycie mocy obliczeniowej jednostki centralnej pozbawionej procesora graficznego. Do obserwacji procesów obliczeniowych i poziomu zużycia mocy obliczeniowej procesora w czasie rzeczywistym wykorzystano pakiet HTOP.
Rocznik
Strony
29--33
Opis fizyczny
Bibliogr. 17 poz., rys.
Twórcy
  • Faculty of Mechatronics, Armament and Aerospace, Military University of Technology, Kaliskiego 2 Street, Warsaw, 00-908, Polan
  • Faculty of Mechatronics, Armament and Aerospace, Military University of Technology, Kaliskiego 2 Street, Warsaw, 00-908, Polan
  • Faculty of Mechatronics, Armament and Aerospace, Military University of Technology, Kaliskiego 2 Street, Warsaw, 00-908, Polan
Bibliografia
  • [1] Zainudin, M. N., et al., A Framework for Chili Fruits Maturity Estimation using Deep Convolutional Neural Network, Przegląd Elektrotechniczny, 12 (2021), 77-81, doi:10.15199/48.2021.12.13.
  • [2] Khamil, K. N., Adnan, M. A. A., & Annuar, M. A. K., Design and Development of a Sanitization Robot (ROBOSAN V2), Przegląd Elektrotechniczny, 10 (2023), 82-87, doi:10.15199/48.2023.10.16.
  • [3] Panasiuk J., Siwek M., Kaczmarek W., Borys S., Prusaczyk P., The concept of using the mobile robot for telemechanical wires installation in pipelines, p. 020054. doi:10.1063/1.5066516
  • [4] Zuniga W. P. C., Navarro J. J. Q., Diaz J. D. P., J. Tavera S., A. Montoya A., Design of a Terrain Mapping System for Low cost Exploration Robots based on Stereo Vision, Przegląd Elektrotechniczny, 5 (2023), 270-275, doi:10.15199/48.2023.05.46.
  • [5] Rezoug, N., Zerikat, M., & Chekroun, S., An efficient fuzzy pi approach to real-time control of a ros-based mobile robot. Przegląd Elektrotechniczny, 2 (2022), 1-5, doi:10.15199/48.2022.02.01.
  • [6] Siwek M., Panasiuk J., Baranowski L., Kaczmarek W., Prusaczyk P., Borys S., Identification of differential drive robot dynamic model parameters, Materials 16 683. doi:10.3390/ma16020683.
  • [7] Siwek M., Baranowski L., Panasiuk J., Kaczmarek W., Modeling and simulation of movement of dispersed group of mobile robots using simscape multibody software, p. 020045. doi:10.1063/1.5092048.
  • [8] Redmon J., Divvala S., Girshick R., Farhadi A., You only look once: Unified, real-time object detection.
  • [9] Szegedy C., Liu W., Jia Y., Sermanet P., Reed S., Anguelov D., Erhan D., Vanhoucke V., Rabinovich A., Going deeper with convolutions, IEEE, pp. 1–9. doi:10.1109/CVPR.2015.7298594.
  • [10] Hosang J., Benenson R., Schiele B., Learning non-maximum suppression, Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, 4507-4515..
  • [11] L. L. Yin, M. N. Shah Zainudin, W. H. Mohd Saad, N. A. Sulaiman, M. I. Idris, M. R. Kamarudin, R. Mohamed, M. S. J. A Razak. Analysis Recognition of Ghost Pepper and Cili-Padi using MaskRCNN and YOLO, Przegląd Elektrotechniczny, 08 (2023), 92-97, doi:10.15199/48.2023.08.15.
  • [12] Redmon J., Farhadi A.. 2016. Yolo9000: Better, faster, stronger, Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, 7263-7271.
  • [13] Redmon J., Farhadi A., YOLOv3: An Incremental Improvement, arXiv:1804.02767, University of Washington 2018.
  • [14] Bochkovskiy A., Wang C.-Y., Liao H.-Y. M., Yolov4: Optimal speed and accuracy of object detection, arXiv preprint arXiv:2004.10934 (2020).
  • [15] Wang C.-Y., Bochkovskiy A., Liao H.-Y. M., YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors, arXiv:2207.02696 (2022).
  • [16] Raji F., Miao L., Optimal wireless rate and power control in the presence of jammers using reinforcement learning. ITU Journal on Future and Evolving Technologies. Volume 3, Issue 2, 508 522 (2022), doi:10.52953/ANSC4385.
  • [17] Jocher G., ultralytics/yolov5: v7.0 - YOLOv5 SOTA Realtime Instance Segmentation, Zenodo, lis. 22, 2022. doi: 10.5281/zenodo.7347926.
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki i promocja sportu (2025).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-91fb9d67-4b69-4a37-93a0-fb9542ab267d
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.