PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Polish emotional speech recognition based on the committee of classifiers

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Rozpoznawanie emocji na podstawie sygnału mowy przy użyciu komitetów klasyfikujących
Języki publikacji
EN
Abstrakty
EN
This article presents the novel method for emotion recognition from polish speech. We compared two different databases: spontaneous and acted out speech. For the purpose of this research we gathered a set of audio samples with emotional information, which serve as input database. Multiple Classifier Systems were used for classification, with commonly used speech descriptors and different groups of perceptual coefficients as features extracted from audio samples.
PL
Niniejsza praca dotyczy rozpoznawania stanów emocjonalnych na podstawie głosu. W artykule porównaliśmy mowę spontaniczną z mową odegraną. Na potrzeby zrealizowanych badań zgromadzone zostały emocjonalne nagrania audio, stanowiące kompleksową bazę wejściową. Przedstawiamy nowatorski sposób klasyfikacji emocji wykorzystujący komitety klasyfikujące, stosując do opisu emocji powszechnie używane deskryptory sygnału mowy oraz percepcyjne współczynniki hybrydowe.
Słowa kluczowe
Rocznik
Strony
101--105
Opis fizyczny
Bibliogr. 27 poz., rys., tab., wykr.
Twórcy
autor
  • Lodz University of Technology, IInstitute of Mechatronics and Information Systems, Stefanowskiego 18/22 Str., 90-924 Lodz
autor
  • Lodz University of Technology, IInstitute of Mechatronics and Information Systems, Stefanowskiego 18/22 Str., 90-924 Lodz
Bibliografia
  • [1] Metallinou A., Katsamanis, Narayanan S., A hierarchical framework for modeling multimodality and emotional evolution in affective dialogs, 2012 IEEE International Conference on Acoustics, Speech and Signal Processing, (2012), 2401-2404
  • [2] Gunes H., Piccardi M., Bi-modal emotion recognition from expressive face and body gestures, J. Netw. Comput. Applicat, 30(4), (2007), 1334-1345
  • [3] Garay N., Cearreta I., Lpez J.M., Fajardo I., Assistive technology and affective mediation, Assistive Technol, 2(1), (2006), 55 – 83
  • [4] Deng J., Han W., Schuller B., Confidence Measures for Speech Emotion Recognition: A Start, Proceedings of Speech Communication Symposium (2012)
  • [5] Ntalampiras S., Fakotakis N., Modeling the Temporal Evolution of Acoustic Parameters for Speech Emotion Recognition, IEEE Transaction on Affective Computing, 3 (2012), 116 – 124
  • [6] Christina I.J., Milton A., Analysis of All Pole Model to Recognise Emotion From Speech Signal, International Conference on Computing, Electronics and Electrical Technologies, (2012), 723 – 728
  • [7] Ślot K., Rozpoznawanie biometryczne - Nowe metody ilościowej reprezentacji obiektów, (2010), Warszawa
  • [8] Fewzee P., Karray F., Dimensionality Reduction for Emotional Speech Recognition, 2012 ASE/IEEE International Conference on Social Computing and 2012 ASE/IEEE International Conference on Privacy, Security, Risk and Trust, (2012), 532 – 537
  • [9] Ivanov A., Riccardi G., Kolmogrov-Smirnov test for feature selection in emotion recognition from speech, 38th International Conference on Acoustics, Speech, and Signal Processing, (2012), Canada, 5125 – 5128
  • [10] Han W., Zhang Z., Deng J., Wollmer M., Weninger F., Schuller B., Towards Distributed Recognition of Emotion From Speech, Proceedings of the 5th International Symposium on Communications, Control and Signal Processing, (2012) Rome, Italy
  • [11] Yup S., and Yoo C., Loss-Scaled Large-Margin Gaussian Mixture Models for Speech Emotion Classification, IEEE Transactions on audio, speech and language processing 20(2), (2012)
  • [12] Yang N., Muraleedharan R., Kohl J., Demirkoly I., Heinzelman W., Sturge-Apple M., ”Speech-based emotion classification using multi class SVM with hybridkernel and thresholding fusion, The Fourth IEEE Workshop on Spoken Language Technology (SLT) (2012), Miami
  • [13] Bojani M., Crnojevi W., Deli V., Application of Neural Networks in Emotional Speech Recognition”, 11th Symposium on Neural Network Applications in Electrical Engineering, (2012) 223 - 226, Belgrade
  • [14] Powroźnik P., Czerwiński D., Effectiveness comparison on an artificial neural networks to identify Polish emotional speech, Przegląd Elektrotechniczny, 7, (2016), 45-48
  • [15] Attar Y., Dumouchel P., Emotion recognition from speech: WOC-NN and class-interaction”, 11th International Conference on Information Science, Signal Processing and their Applications, (2012), 126 – 131
  • [16] Zbancioc M., Feraru S. M., Emotion Recognition of the SROL Romanian Database using Fuzzy KNN Algorithm”, 10th International Symposium on Electronics and Telecommunications Proc., (2012)Timisoara
  • [17] Metallinou A., Katsamanis A., Narayanan S., A hierarchical framework for modeling multimodality and emotional evolution in affective dialogs, 38th International Conference on Acoustics, Speech, and Signal ProcessinG, (2012), Canada, 2401 – 2404
  • [18] Vasuki P.,Aravindan C., Improving Emotion Recognition From Speech Using Sensor Fusion Techniques, TENCON, (2012), Cebu, Philippines
  • [19] Burkhardt F., Paeschke A., Rolfes M., Sendlmeier W., Weiss B., A database of german emotional speech, InterSpeech, (2005), 1517 – 1520
  • [20] Plutchik R., Nature of emotions, American Scientist, 89,2001
  • [21] Mower E., Metallinou A., Lee C., Kazemzadeh A., Busso C., Lee S., Narayanan S., Interpreting ambiguous emotional expressions, 3rd International Conference on Affective Computing and Intelligent Interaction and Workshops (2008), 1-8
  • [22] Kamińska D., Pelikant A., Recognition of Human Emotion from a Speech Signal Based on Plutchik’s Model, International Journal of Electronics and Telecommunications 58 (2), (2012),165-170
  • [23] Kamińska D., Sapiński T., Pelikant A, Polish Emotional Natural Speech Database, Signal Processing Symposium, (2015), Debe, 63-69
  • [24] Database of Polish Emotional Speech, available: http://www.eletel.p.lodz.pl/bronakowski/med_catalog/
  • [25] Kamińska D., Sapiński T.,Pelikant A., Comparison of Perceptual Features Efficiency for Automatic Identification of Emotional States from Speech, HSI.2013
  • [26] Cichosz P. Systemy uczące się Wydawnictwa Naukowo- Techniczne, 2007
  • [27] Podolak I. Klasyfikator Hierarchiczny z nakładającymi się grupami klas. Wydawnictwo Uniwersytetu Jagiellońskiego, 2012
Uwagi
Opracowanie ze środków MNiSW w ramach umowy 812/P-DUN/2016 na działalność upowszechniającą naukę (zadania 2017).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-39f950a3-9c5a-4be9-81fc-f2d5d4d13f54
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.