Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!
  • Sesja wygasła!
  • Sesja wygasła!
  • Sesja wygasła!

Znaleziono wyników: 4

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  speech signal processing
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The study investigates the use of speech signal to recognise speakers’ emotional states. The introduction includes the definition and categorization of emotions, including facial expressions, speech and physiological signals. For the purpose of this work, a proprietary resource of emotionally-marked speech recordings was created. The collected recordings come from the media, including live journalistic broadcasts, which show spontaneous emotional reactions to real-time stimuli. For the purpose of signal speech analysis, a specific script was written in Python. Its algorithm includes the parameterization of speech recordings and determination of features correlated with emotional content in speech. After the parametrization process, data clustering was performed to allows for the grouping of feature vectors for speakers into greater collections which imitate specific emotional states. Using the t-Student test for dependent samples, some descriptors were distinguished, which identified significant differences in the values of features between emotional states. Some potential applications for this research were proposed, as well as other development directions for future studies of the topic.
EN
This paper describes the comparison of the two most popular mobile platforms in terms of speech signal processing. The test was carried out in terms of performance processing algorithm Pitch Synchronous Overlap and Add by two applications. Article also presents technical aspects of the implementation of the algorithm PSOLA on two mobile operating systems Android and iOS with the use of official development environments.
PL
Artykuł przedstawia porównanie dwóch najpopularniejszych platform mobilnych w kontekście przetwarzania sygnałów mowy. Badania przeprowadzono pod kątem wydajności alogorytmu Pitch Synchronous Overlap and Add by two (PSOLA). Wykazano również techniczne aspekty implementacji algorytmu PSOLA na platformach Android i iOS z wykorzystaniem oficjalnych narzędzi programistycznych dla tych środowisk.
3
Content available Speech signal processing and analysis tool
EN
The project's objective is to create a tool intended for processing, analysis, and parameterizing human speech signal. The main aim is to obtain a speech signal image with some selected parameterization methods. The methods include use of 2D parameterization grid [1, 2] as well as cepstral coefficients CC [3]. Obtaining signal image as well as its further analysis without signal preprocessing is extremely difficult and the process doesn't guarantee desirable results. For this reason the tool is based on two main modules. The first one is intended for signal preprocessing, preparing it for further analysis. The other one provides signal parameterization methods. The tool was implemented in Java language.
PL
W pracy podjęto próbę stworzenia narzędzia umożliwiającego przetwarzanie, analizę i parametryzację sygnału mowy. Głównym celem jest pozyskanie obrazu sygnału mowy za pomocą wybranych metod parametryzacji. Wybrane metody parametryzacji sygnału mowy to parametryzacja za pomocą siatki dwuwymiarowej [1, 2] oraz współczynniki cepstralne [3]. Zobrazowanie sygnału oraz jego dalsza analiza bez operacji wstępnego przetworzenia sygnału jest procesem trudnym i nie zawsze przynosi pożądane rezultaty. Wobec tego narzędzie wyposażono w dwa zasadnicze moduły. Pierwszy moduł odpowiedzialny jest za wstępne przetworzenie sygnału, przygotowujące sygnał do dalszej analizy. Drugi moduł dostarcza metod parametryzacji sygnału mowy. Narzędzie zaimplementowano w języku Java.
PL
Opisano w jaki sposób ucho przetwarza sygnały akustyczne. Omówiono charakterystyczne właściwości elektronicznych protez uszu z implantami w uchu wewnętrznym. Dokonano przeglądu współczesnych metod przetwarzania sygnałów mowy w protezach ucha. Podano przykłady aktualnie stosowanych protez ślimakowych.
EN
How the human ear process the acoustic signals is described. The characteristics of the electronic prosthesis of ears with cochlear implants are listed. The survey of contemporary methods of acoustic signal processing into electric stimulation pulses is presented. This survey is illustrated with few examples of today's cochlear prosthesis.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.