PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

System rozpoznawania emocji wypowiedzi na potrzeby robotów społecznych

Autorzy
Identyfikatory
Warianty tytułu
EN
Speech emotion recognition system for social robots
Języki publikacji
PL
Abstrakty
PL
W artykule przedstawiono realizację systemu rozpoznawania emocji wypowiedzi na podstawie intonacji głosu. Użyto paradygmatu opartego na globalnych statystykach wektorów cech. Omówione zostały poszczególne etapy procesu klasyfikacji: akwizycja sygnału mowy, jego parametryzacja, ekstrakcja cech, ich selekcja oraz klasyfikacja. Przeprowadzona została weryfikacja skuteczności systemu przy użyciu dwóch baz mowy emocjonalnej: polskiej oraz niemieckiej.
EN
The paper presents speech emotion recognition system for social robots. Emotions are recognized using global prosodic features of speech. System implements speech parameters calculation, features extraction, features selection and classification. All thees phases are described. System was verified using two emotional speech databases: Polish and English. Perspectives for using such system in social robots are presented.
Rocznik
Strony
695--704
Opis fizyczny
Bibliogr. 32 poz., rys., tab.
Twórcy
  • Instytut Informatyki, Automatyki i Robotyki, ul. Janiszewskiego 11/17, 50-372 Wrocław
Bibliografia
  • [1] David W. Aha, Richard L. Bankert. A Comparative Evaluation of Sequential Feature Selection Algorithms, 1994.
  • [2] Paul Boersma. Accurate Short-Term Analysis of the Fundamental Frequency and the Harmonics-to-Noise Ratio of a Sampled Sound. Institute of Phonetic Sciences, University of Amsterdam, Proceedings. 1993, wolumen 17, s. 97-110.
  • [3] Remco R Bouckaert. Bayesian Network Classifiers in Weka for Version 3-5-7. Network, 2008.
  • [4] R. Budziński, J. Kędzierski, B. Weselak. Głowa robota społecznego Samuel - konstrukcja. In: Prace Naukowe Politechniki Warszawskiej, Elektronika, s. 185-194, z. 175, t.1. Oficyna Wydawnicza Politechniki Warszawskiej 2010.
  • [5] F. Burkhardt et al. A database of german emotional speech. Citeseer 2005, wolumen 2005, s. 3-6.
  • [6] S. Casale et al. Speech Emotion Classification Using Machine Learning Algorithms. In: Proceedings of the 2008 IEEE International Conference on Semantic Computing. Proceedings, Washington, DC, USA, IEEE Computer Society, 2008, s. 158-165.
  • [7] J. Cichosz, Ślot K. Emotion recognition in speech signal using emotion-extracting binary decision trees. In: Proceedings of the 2nd International Conference on Affective Computing and Intelligent Interaction (ACH): Doctoral Consortium. Proceedings, 2007.
  • [8] Gregory F. Cooper, Tom Dietterich. A Bayesian method for the induction of probabilistic networks from data, In: Machine Learning. Proceedings, 1992, s. 309-347.
  • [9] R. Cowie et al. Emotion recognition in human-computer interaction. IEEE Signal Processing Magazine, Styczeń, 2001, wolumen 18, numer 1, s. 32-80.
  • [10] K. Dautenhahn. Socially intelligent agents: creating relationships with computers and robots. Kluwer Academic Publishers 2002, rozdział Creating emotion recognition agents for speech signal. Multiagent systems, artificial societies, and simulated organizations.
  • [11] Nir Friedman et al. Bayesian Network Classifiers. In: Machine Learning. Proceedings, 1997, s. 131-163.
  • [12] Jakub Gałka. Optymalizacja parametryzacji sygnału w aspekcie rozpoznawania mowy polskiej. Praca doktorska, Akademia Górniczo-Hutnicza w Krakowie, 2008.
  • [13] Mark Hall et al. The WEKA data mining software: an update. SIGKDD Explor. Newsl., November, 2009, wolumen 11, s. 10-18,
  • [14] Mark A. Hall. Correlation-based Feature Subset Selection for Machine Learning. Praca doktorska, Department of Computer Science, University of Waikato, Hamilton, New Zealand, Kwiecień, 1999,
  • [15] Tomi Kinnunen, Ville Hautamäki, Pasi Fränti. On the Use of Long-Term Average Spectrum in Automatic Speaker Recognition, 2006.
  • [16] Pat Langley, Stephanie Sage. Induction of Selective Bayesian Classifiers. In: Conference on uncertainity in artificial intelligence. Proceedings. Morgan Kaufmann, 1994, s. 399-406.
  • [17] Xia Mao, Bing Zhang, Yi Luo. Speech emotion recognition based on a hybrid of HMM/ANN. In: Proceedings of the 7th Conference on 7th WSEAS International Conference on Applied Informatics and Communications - Volume 7. Proceedings, Stevens Point, Wisconsin, USA, World Scientific and Engineering Academy and Society (WSEAS), 2007, s. 367-370.
  • [18] I.R. Murray, J.L. Arnott. Toward the simulation of emotion in synthetic speech: a review of the literature on human vocal emotion. Journal of the Acoustic Society of America, 1993, wolumen 93, numer 2, s. 1097-1108.
  • [19] Daniel Neiberg, Kjell Elenius. Automatic Recognition of Anger in Spontaneous Speech.
  • [20] Tin Lay Nwe, Say Wei Foo, Liyanage C. De Silva. Speech emotion recognition using hidden Markov models. Speech Communication, 2003, wolumen 41, s. 603-623.
  • [21] Alexander Osherenko, Elisabeth Andreé. Differentiated semantic analysis in lexical affect sensing. 2009 3rd International Conference on Affective Computing and Intelligent Interaction and Workshops, 2009, s. 1-6.
  • [22] David Weenink, Paul Boersma. Praat: doing phonetics by computer (Version 5.2.05), 2010.
  • [23] Politechnika Łódzka, Zakład Elektroniki Medycznej. Baza Polskiej Mowy Emocjonalnej. http://www.eletel.p.lodz.pl/bronakowski/med_catalog/docs/licence.txt.
  • [24] S.A. Samad, A. Hussain, Low Kok Fah. Pitch detection of speech signals using the cross-correlation technique. In: TENCON 2000. Proceedings. Proceedings, 2000, wolumen 1, s. 283-286.
  • [25] S. Schnall. The pragmatics of emotion language. Psychological Inquiry, Styczeń, 2005, wolumen 16, numer 1, s. 28-31.
  • [26] Julia Sidorova. Speech emotion recognition with TGI+.2 classifier. In: Proceedings of the 12th Conference of the European Chapter of the Association for Computational Linguistics: Student Research Workshop. Proceedings, Association for Computational Linguistics, 2009, EACL’09, s. 54-60.
  • [27] S. S. Stevens, J. Volkmann, E. B. Newman. A Scale for the Measurement of the Psychological Magnitude Pitch. Journal of the Acoustical Society of America, 1937, wolumen 8, numer 3, s. 185-190.
  • [28] Ryszard Tadeusiewicz. Sygnał mowy. WKiŁ 1988.
  • [29] R.J. J. H. van Son, Louis C. W. Pols. An acoustic description of consonant reduction. Speech Commun., June, 1999, wolumen 28, s. 125-140.
  • [30] Thurid Vogt. Real-time automatic emotion recognition from speech. Praca doktorska, Technischen Fakultät der Universität Bielefeld, 2010.
  • [31] Zhongzhe Xiao et al. Hierarchical Classification of Emotional Speech. Raport instytutowy RR-LIRIS-2007-006, LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Untversité Lumiere Lyon 2/École Centrale de Lyon, Marzec, 2007.
  • [32] Jian Zhou et al. Speech Emotion Recognition Based on Rough Set and SVM. In: IEEE ICCI. Proceedings Red. Yiyu Yao et al. IEEE, 2006, s. 53-61.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-94c23278-69c5-4b33-9748-8de7af22a395
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.