PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Analiza zadowolenia rozmówcy na podstawie głosu

Identyfikatory
Warianty tytułu
EN
Voice-based analysis of speaker satisfaction
Konferencja
XXXIII Krajowe Sympozjum Telekomunikacji i Teleinformatyki (XXXIII ;13-15.09.2017 ; Warszawa, Polska)
Języki publikacji
PL
Abstrakty
PL
Artykuł prezentuje próbę analizy zadowolenia mówcy na podstawie sygnału mowy. Na podstawie rzeczywistych rozmów z call center stworzono korpus mowy oraz przeprowadzono wstępne testy, których celem było określenie możliwości automatycznego wykrywania niezadowolenia w głosie. Podczas eksperymentów 1179 nagrań poddano automatycznej klasyfikacji, uzyskując ponad 83% dokładności przy detekcji niezadowolenia niewerbalnego.
EN
The paper presents an approach to speaker’s satisfaction analysis based on speech signal. A corpus of emotional speech from real call center recordings was created. Preliminary tests were performed to estimate possibility of automatic detection of dissatisfaction based on speech analysis. 1179 recordings were classified obtaining 83% accuracy when detecting non-verbal dissatisfaction.
Rocznik
Tom
Strony
1038--1041, CD
Opis fizyczny
Bibliogr. 15 poz., rys., tab.
Twórcy
  • Instytut Telekomunikacji, Wydział Elektroniki i Technik Informacyjnych, Politechnika Warszawska, ul. Nowowiejska 15/19, 00-665 Warszawa
autor
  • Instytut Telekomunikacji, Wydział Elektroniki i Technik Informacyjnych, Politechnika Warszawska, ul. Nowowiejska 15/19, 00-665 Warszawa
Bibliografia
  • [1] Cen L., Ser W., Yu Z. L..2008. „Speech Emotion Recognition Using Canonical Correlation Analysis and Probabilistic Neural Network”. ICMLA 2008. San Diego.
  • [2] Clavel C., Devillers L., Richard G., Vasilescu I., Ehrette T.. 2007. „Detection And Analysis Of Abnormal Situations Through Fear-Type Acoustic Manifestations”. ICASSP 2007. Honolulu.
  • [3] Erden M., Arslan L.. 2011. „Automatic Detection of Anger in Human-Human Call Center Dialogs” INTERSPEECH 2011. Florence. [14]
  • [4] Hui G., Shanguang C., Guangchuan S.. 2012. „Emotion recognition of mandarin speech for different speech corpora based on nonlinear features”. ICSP2012. Beijing.
  • [5] Izdebski K.. 2008. „Emotions in the human voice”. Vol. I-III, Plural Publishing, San Diego.
  • [6] Janicki A., Turkot M.. 2008. „Rozpoznawaniestanu emocjonalnego mówcy z wykorzystaniem maszyny wektorów wspierających (SVM) ”. KSTiT 2008. Bydgoszcz.
  • [7] Luengo I., Navas E., Hernáez I., Sánchez J.. 2005. „Automatic Emotion Recognition Using Prosodic Parameters”. Interspeech 2005. Lisbona.
  • [8] Neiberg D. Elenius K., 2008. „Automatic recognition of anger in spontaneous speech”. Interspeech 2008.
  • [9] Nwe T. L., Haizhou L., Wang Y..2005. „Integrating Articulatory Based Features with Auditory Based Features for Robust Stressed Speech Recognition”. ICSP 2005. Bangkok.
  • [10] Pappas, D., Androutsopoulos, I., Papageorgiou, H. 2015. „Anger detection in call center dialogues”. CogInfo-Com 2015.
  • [11] Pohjalainen J., Alku P..2013. „Automatic Detection of Anger in Telephone Speech With Robust Autoregressive Modulation Filtering”. IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver.
  • [12] Schuller B., Seppi D., Batliner A., Maier A., Steidl S.. 2007. „Towards more reality in the recognition of emotional speech”. ICASSP 2007. Honolulu.
  • [13] Vaudable C., Devillers L.. 2012. „Negative emotions detection as an indicator of dialogs quality in call centers”. ICASSP 2012.
  • [14] Vidrascu L., Devillers L.. 2005. „Detection of real-life emotions in call centers”. Interspeech 2005.
  • [15] Witten Ian H., Frank Eibe, Hall Mark A.. 2016. The WEKA Workbench. Appendix for "Data Mining: Practical Machine Learning Tools and Techniques", Morgan Kaufmann, 4th Edition.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-e6d580e4-fea0-4225-9507-6eee2a56c600
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.