PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Continuous speech commands recognition with thai language used support vector machine technique: A case study of speech commands control for mobile robots

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Ciągłe rozpoznawanie poleceń głosowych w używanym języku tajskim Technika maszynowa wektorów pomocniczych: studium przypadku kontroli poleceń głosowych dla robotów mobilnych
Języki publikacji
EN
Abstrakty
EN
This article presents the application of an automatic speech recognition by continuous speech commands recognition with Thai language as a speaker verification model, this is a case study of speech commands control of mobile robots. The design of the automatic speech recognition system consisted of 3 steps: The first we analyzed the signal processing of the continuous speech commands and compared the accuracy of the speech recognition with a time frame adjustment and the overlapped period of signal filtered with the window function, The second we proceed to find the feature extraction of speech commands using format frequency techniques and configured the feature extraction with format frequencies of F1, F2, and F3,The last step was to design the recognition using Support Vector Machine technique to check the accuracy of an automatic speech recognition. These is support vector machine classification algorithm provides a comparison of the filtered function window and compares the accuracy of the time frame scaled and the overlapped time of the filtered, which gives different values of precision. From the experiment, the researcher found that are applied a Hanging function the test results of the test result of the "forward" speech commands has an accuracy of 81.92% but kind of Gaussian function the test results of the "backward" speech commands has an accuracy of 83.69%, the "turn left" speech commands had an accuracy of 82.81%, the "turn right" speech commands had an accuracy of 85.56% and the "Stop first" speech commands has an accuracy of 86.78% and speech recognition by continuous speech commands recognition with Thai language was applied an every function the test results of the overall performance of the speech commands has an accuracy of 83.88%.
PL
Artykuł przedstawia zastosowanie automatycznego rozpoznawania mowy poprzez ciągłe rozpoznawanie poleceń głosowych z językiem tajskim jako modelem weryfikacji mówiącego, jest to studium przypadku sterowania poleceniami głosowymi robotów mobilnych. Projekt systemu automatycznego rozpoznawania mowy składał się z 3 etapów: W pierwszym przeanalizowano przetwarzanie sygnału ciągłych poleceń głosowych i porównano dokładność rozpoznawania mowy z dopasowaniem przedziału czasowego i nakładającym się okresem sygnału filtrowanego funkcją okna, Następnie przystępujemy do znalezienia ekstrakcji funkcji poleceń głosowych przy użyciu technik formatowania częstotliwości i skonfigurowania ekstrakcji cech z częstotliwościami formatu F1, F2 i F3. Ostatnim krokiem było zaprojektowanie rozpoznawania przy użyciu techniki maszyny wektorów nośnych w celu sprawdzenia dokładności automatyczne rozpoznawanie mowy. Jest to algorytm klasyfikacji maszyny wektorów nośnych, który zapewnia porównanie przefiltrowanego okna funkcji i porównuje dokładność skalowanych ram czasowych oraz nakładających się czasów filtrowanych, co daje różne wartości precyzji. Na podstawie eksperymentu badacz odkrył, że po zastosowaniu funkcji wiszącej wyniki testu wyników poleceń głosowych „do przodu” mają dokładność 81,92%, ale rodzaj funkcji Gaussa wyniki testu poleceń głosowych „wstecz” mają dokładność 81,92% dokładność 83,69%, polecenia głosowe „skręć w lewo” miały dokładność 82,81%, polecenia głosowe „skręć w prawo” miały dokładność 85,56%, a polecenia głosowe „Najpierw zatrzymaj” mają dokładność 86,78%, a rozpoznawanie mowy przez zastosowano ciągłe rozpoznawanie poleceń głosowych w języku tajskim, a wyniki testu ogólnej wydajności poleceń głosowych mają dokładność 83,88%.
Rocznik
Strony
181--187
Opis fizyczny
Bibliogr. 20 poz., rys., tab.
Twórcy
  • Pathumwan Institute of Technology, 833 Rama1 Wangmai District, Bangkok, Thailand
  • Pathumwan Institute of Technology, 833 Rama1 Wangmai District, Bangkok, Thailand
Bibliografia
  • [1] A. Vishwakarma and M. Soni, "Speaker Recognition System – A Review,"International Journal of Emerging Technologies in Engineering Research (IJETER), 85-89.
  • [2] J. Nuchrak, K. Fathanom, C. Prakhom, C. Mueantaeng, S. Muangjaroen, “Designed of rescue robot’s controller with a board Arduino Mega 2560, “Proceedings of the 10thConference of Electrical Engineering Network 2018 (EENET 2018),455-458.
  • [3] S.Muangjaroen and S. Udomsiri,"The study of continuous speech recognition with Thai language using Mel Frequency Cepstral coefficient extraction method,10th International Science, Social Science, Engineering and Energy Conference, (2019) , pp. 1-12.
  • [4] S.Muangjaroen, W.Chaemla, S.Duangsungnern and S.Udomsiri ,The study of speech recognition for the Thai language by using audio extraction techniques with the method Mel frequency cepstral coefficients, The 42nd Electrical Engineering Conference eecon42(2019),-301-304.
  • [5] D. Anggraeni, W.S.M. Sanjaya, M. Munawwaroh, M. Y.Nurasyidiek,and I. P. Santika,"Control of Robot Arm based on Speech Recognition using Mel-Frequency Cepstrum Coefficients (MFCC) and K-Nearest Neighbors (KNN) Method ," Intelligent Manufacture, and Industrial Automation (ICAMIMIA), 217-222.
  • [6] S. K. Shevade, S. S. Keerthi, C. Bhattacharyya, and K. R. K. Murthy, "Improvements to the SMO Algorithm for SVM Regression," IEEE TRANSACTIONS ON NEURAL NETWORKS, VOL. 11, NO. 5, (2000), 1188-1193.
  • [7] Y. Li, K. Bontcheva and H. Cunningham, "SVM Based Learning System For Information Extraction," International Workshop on Deterministic and Statistical Methods in Machine Learning, (2005), 319–339.
  • [8] M. Zhang, X. Ai and Y. Hu , "Chinese Text Classification System on Regulatory Information Based on SVM,"Earth and Environmental Science, (2019), 1-10.
  • [9] P. TAO , ZHE. SUN, AND ZHI. SUN, "An Improved Intrusion Detection Algorithm Based on GA and SVM,"Special section on human-centered smart systems and technologies, (2018), 13624-13631.
  • [10] Y Zhang, M. Ni, C Zhang, S Liang, Sg Fang, R Li1 and Z. Tan, "Research and Application of AdaBoost Algorithm Based on SVM," IEEE 8th Joint International Information Technology and Artificial Intelligence Conference (ITAIC 2019), 662-666.
  • [11] L. Auria and R. A. Moro, "Support Vector Machines (SVM) as a Technique for Solvency Analysis," DIW Discussion Papers, (2008), No. 811, 1-16.
  • [12] A. Mathur and G. M. Foody, "Multiclass and Binary SVM Classification: Implications for Training and Classification Users," In IEEE Geoscience and Remote Sensing Letters, vol. 5, no. 2, 241-245.
  • [13] M. E. Mavroforakis and S. Theodoridis, "A geometric approach to Support Vector Machine (SVM) classification," In IEEE Transactions on Neural Networks, vol. 17, no. 3, 671-682.
  • [14] Y. Bazi and F. Melgani, "Toward an Optimal SVM Classification System for Hyperspectral Remote Sensing Images," In IEEE Transactions on Geoscience and Remote Sensing, vol. 44, no. 11, 3374-3385.
  • [15] A. Patle and D. S. Chouhan, "SVM kernel functions for classification," 2013 International Conference on Advances in Technology and Engineering (ICATE), 2013, pp. 1-9.
  • [16] M. Pal and G. M. Foody, "Feature Selection for Classification of Hyperspectral Data by SVM," in IEEE Transactions on Geoscience and Remote Sensing, vol. 48, no. 5, 2297-2307.
  • [17] J. Augustine, B. Bellermin, J. K Martin, Deepthy J, "Emotion Recognition in Speech Using MFCC with SVM, DSVM and Auto-encoder" International Journal for Research in Applied Science & Engineering Technology (IJRASET), (2021),1021-1026.
  • [18] B. Kollmeier and B.T. Meyer, "Exploring Auditory-Inspired Acoustic Features for Room Acoustic Parameter Estimation from Monaural Speech," IEEE/ACM Transactions on AUDIO, Speech, and Language Processing, VOL. 26, NO. 10, 2018, 1809-1820.
  • [19] M. Walid, S. Bousselmi, K. Dabbabi and A. Cherif, "Real Time Implementation of Isolated-Word Speech Recognition System on Raspberry Pi 3 Using WAT-MFCC," IJCSNS International Journal of Computer Science and Network Security, VOL.19 No.3, (2019), 42-49.
  • [20] M. AUGUSTYN, "Recognition of handwritten digits on the basis of signals from a 3-axis accelerometer using the DTW method taking into account various detection criteria," Przeglad Elektrotechniczny,VOL. 11, (2022), 177-180.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-2efec18f-cf67-4c5f-936a-28b5caa1de25
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.