PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

An improved real visual tracking system using particle filter

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Ulepszony rzeczywisty system śledzenia wizualnego za pomocą filtra cząstek
Języki publikacji
EN
Abstrakty
EN
This paper presents a real hybrid visual tracking system based on a special-color model of target with improving the performance of this designed visual tracking system using various linear and nonlinear estimators like Kalman filter and particle filter. Moreover, the whole system has been designed and implemented in the laboratory by fusing the tracking algorithm that was created utilizing python software with a moving camera sensor. In addition, the designed visual tracking system has been simple, low cost and achieved all stages of visual tracking process like target initialization, appearance modeling, movement estimation, and target positioning with a great success. Finally, the graphical analysis results of the designed system illustrated had a great illustration on the validity of utilizing particle filer was very efficient and clearer with maneuvering targets than that were used with Kalman filter.
PL
W niniejszym artykule przedstawiono hybrydowy system śledzenia wizualnego oparty na modelu celu w specjalnej kolorystyce z poprawą wydajności tego zaprojektowanego systemu śledzenia wizualnego przy użyciu różnych liniowych i nieliniowych estymatorów, takich jak filtr Kalmana i filtr cząsteczkowy. Co więcej, cały system został zaprojektowany i wdrożony w laboratorium poprzez połączenie algorytmu śledzenia, który został stworzony przy użyciu oprogramowania Pythona z ruchomym czujnikiem kamery. Ponadto zaprojektowany system śledzenia wizualnego był prosty, tani i osiągnął z dużym sukcesem wszystkie etapy procesu śledzenia wizualnego, takie jak inicjalizacja celu, modelowanie wyglądu, szacowanie ruchu i pozycjonowanie celu. Wreszcie, wyniki analizy graficznej zilustrowanego zaprojektowanego systemu doskonale ilustrują zasadność wykorzystania filtra cząstek, który był bardzo wydajny i wyraźniejszy w przypadku celów manewrujących niż ten, który był używany z filtrem Kalmana.
Rocznik
Strony
164--169
Opis fizyczny
Bibliogr. 20 poz., rys., tab.
Twórcy
  • Department of electrical engineering Air Defense College, Alexandria, Egypt
  • Department of Electronics and Communication, Faculty of Engineering, Zagazig University, Egypt
  • Department of Electronics and Communication, Faculty of Engineering, Zagazig University, Egypt
  • Department of electrical engineering Air Defense College, Alexandria, Egypt
  • Department of Electronics and Electrical Communications, Faculty of Engineering Tanta University, Tanta, Egypt
  • Communications and Electronics Department Faculty of Electronic Engineering, Menoufia University, Egypt
Bibliografia
  • 1. Sun Y, Meng MQH. Multiple moving objects tracking for automated visual surveillance. In: 2015 IEEE international conference on information and automation. 2015; IEEE. pp. 1617–1621.
  • 2. Chincholkar AA, Bhoyar MSA, Dagwar MSN. Moving object tracking and detection in videos using MATLAB: a review. Int J Adv Res Comput Electron. 2014;1(5):2348–5523.
  • 3. Kang B, Liang D, Yang Z. Robust visual tracking via global context regularized locality-constrained linear coding. Optik. 2019;183:232–40.
  • 4. Chaki J, Dey N, Shi F, Sherratt RS. Pattern mining approaches used in sensor-based biometric recognition: a review. IEEE Sens J. 2019; 19(10):3569–80.
  • 5. Fan L, Wang Z, Cail B, Tao C, Zhang Z, Wang Y et al. A survey on multiple object tracking algorithm. In: 2016 IEEE international conference on information and automation (ICIA). IEEE; 2016. pp. 1855–1862.
  • 6. Liu S, Feng Y. Real-time fast moving object tracking in severely degraded videos captured by unmanned aerial vehicle. Int J Adv Rob Syst. 2018; 15(1):1729881418759108.
  • 7. J. Hariyono, V. Hoang, and K. Jo, "Moving Object Localization Using Optical Flow for Pedestrian Detection from a Moving Vehicle," Scientific World Journal, Vol. 2014, Article ID 196415, 2014.
  • 8. Akpinar S, Alpaslan FN. Video action recognition using an optical flow based representation. In: Proceedings of the international conference on image processing, computer vision, and pattern recognition (IPCV) (p. 1). The Steering Committee of the World Congress in Computer Science, Computer Engineering and Applied Computing (WorldComp). 2014.
  • 9. Acharjee S, Ray R, Chakraborty S, Nath S, Dey N. Watermarking in motion vector for security enhancement of medical videos. In: 2014 International conference on control, instrumentation, communication and computational technologies (ICCICCT). IEEE; 2014. pp. 532–537.
  • 10. Acharjee S, Pal G, Redha T, Chakraborty S, Chaudhuri SS, Dey N. Motion vector estimation using parallel processing. In: International Conference on Circuits, Communication, Control and Computing. IEEE; 2014. pp. 231–236.
  • 11. Dou J, Qin Q, Tu Z. Robust visual tracking based on generative and discriminative model collaboration. Multimed Tools Appl. 2017; 76(14):15839–66.
  • 12. Chang, Dah-Chung, and Meng-Wei Fang. "Bearing-Only Maneuvering Mobile Tracking With Nonlinear Filtering Algorithms in Wireless Sensor Networks. “Systems Journal, IEEE Transactions on 8, no. 1 (2014): 160-170.
  • 13. N. Mosto_, M. Elhabiby, and N. El-Sheimy, \Indoor localization and mapping using camera and inertial measurement unit (imu)," in Position, Location and Navigation Symposium- PLANS 2014, 2014 IEEE/ION. IEEE, 2014, pp. 1329-1335.
  • 14. Dou J, Qin Q, Tu Z. Robust visual tracking based on generative and discriminative model collaboration. Multimed Tools Appl. 2017; 76(14):15839–66.
  • 15. Kristan M, Matas J, Leonardis A, Felsberg M, Cehovin L, Fernandez G, et al. The visual object tracking vot2015 challenge results. In: Proceedings of the IEEE international conference on computer vision workshops. 2015. pp. 1–23.
  • 16. Čehovin L, Leonardis A, Kristan M. Visual object tracking performance measures revisited. IEEE Trans Image Process.2016; 25(3):1261–74.
  • 17. M. D. Jenkins, P. Barrie, T. Buggy, and G. Morison, “Selective sampling importance resampling particle filter tracking with multibag subspace restoration,” IEEE Trans. Cybern., vol. 48, no. 1, pp. 264–276,Jan. 2018.
  • 18,. . Xiao, R. Stolkin, M. Oussalah, and A. Leonardis, “Continuously adaptive data fusion and model relearning for particle filter tracking with multiple features,” IEEE Sensors J., vol. 16, no. 8, pp. 2639–2649, Apr. 2016.
  • 19. P. Li, D. Wang, L. Wang, and H. Lu, “Deep visual tracking: Review and experimental comparison,” Pattern Recognit., vol. 76, pp. 323–338, Apr. 2018.
  • 20. Fiaz M, Mahmood A, Jung SK. Tracking noisy targets: a review of recent object tracking approaches. arXiv preprint arXiv: 1802.03098. 2018.
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa Nr 461252 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2021).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-b38ba355-bb6e-47b4-878c-7530e8caa84e
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.