PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Strategie treningu neuronowego estymatora częstotliwości tonu krtaniowego z użyciem generatora syntetycznych samogłosek

Identyfikatory
Warianty tytułu
EN
Training strategies of neural fundamental frequency estimator using a synthetic vowels generator
Konferencja
Multikonferencja Krajowego Środowiska Tele- i Radiokomunikacyjnego (7-9.09.2022 ; Warszawa, Polska)
Języki publikacji
PL
Abstrakty
PL
W wielu zastosowaniach telekomunikacyjnych pojawia się problem przetwarzania lub analizy sygnału mowy, w ramach którego, często w obszarze podstawowych algorytmów, stosuje się estymator częstotliwości tonu krtaniowego. Estymator rozpatrywany w tej pracy bazuje na neuronowym klasyfikatorze podejmującym decyzje na podstawie częstotliwości oraz mocy chwilowej wyznaczanych w podpasmach analizowanego sygnału mowy. W pracy rozważamy problematykę treningu tego estymatora, gdy trening odbywa się z użyciem sygnałów generowanych syntetycznie.
EN
In many telecommunication applications there is a need for a speech signal processing or analysis, within which the pitch tone frequency estimator is one of the common basic algorithms. The estimator considered in this paper is based on a neural classifier, whose decisions are driven by the instantaneous frequency and power determined in the sub-bands of the analyzed speech signal. In the paper, we consider the problems of selecting a training strategy for this estimator, when training is carried out with synthetically generated vowels.
Rocznik
Tom
Strony
604--607
Opis fizyczny
Bibliogr. 7 poz., rys., tab.
Twórcy
autor
  • Politechnika Gdańska, Wydział Elektroniki, Telekomunikacji i Informatyki, Gdańsk
autor
  • Politechnika Gdańska, Wydział Elektroniki, Telekomunikacji i Informatyki, Gdańsk
  • Politechnika Gdańska, Wydział Elektroniki, Telekomunikacji i Informatyki, Gdańsk
Bibliografia
  • [1] Blok, Marek, Jan Banas, and Mariusz Pietrolaj. 2021. "IFE: NN-Aided lnstantaneous Pitch Estimation.". 14th International Conference on Human System lnteraction (HSI).
  • [2] "Keele Pitch Database". https:/lost-contact.mit.edu/afs/nada.kth.se/dept/tmh/corpora/KeelePitchDB/. Accessed Aprit 23, 2022.
  • [3] "Pytorch." PyTorch. https://pytorch.org/. Accessed April 23, 2022. - C
  • [4] Rosenblatt, F. 1958. "The Perception: A Probabilistic Model for Information Storage and Organization in the Brain". Psychological Review 65, no. 6: 386-408.
  • [5] Schorkhuber, Christian, and Anssi Klapuri. 2010. "Constant-Q Transform Toolbox for Music Processing". 7th Sound and Music Computing Conference.
  • [6] Teixeira, Joao Paulo, Carla Oliveira, and Carta Lopes. 2013. "Vocal Acoustic Analysis - Jitter, Shimmer and HNR Parameters". Procedia Technology 9: 1112-22.
  • [7] Veprek, Peter, and Michael S. Scordilis. 2002. "Analysis, enhancement and evaluation of five pitch determination techniques". Speech Communication 37. 3-4: 249-270.
Uwagi
Opracowanie rekordu ze środków MEiN, umowa nr SONP/SP/546092/2022 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2022-2023).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-8f95aa64-bda1-4aee-8712-94d3ede6d925
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.