PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Automatyczna organizacja bazy muzycznej na podstawie nastroju muzyki

Autorzy
Identyfikatory
Warianty tytułu
EN
Automatic music set organizatio based on mood of music
Konferencja
Krajowa Konferencja Radiokomunikacji, Radiofonii i Telewizji (21-23.06.2017 ; Poznań, Polska)
Języki publikacji
PL
Abstrakty
PL
W prezentowanej pracy skoncentrowano się na organizacji muzyki w kontekście zawartych w niej emocji. Zaproponowano wektor parametrów opisujących nastrój oraz stworzono autorski graficzny model emocji dedykowany do subiektywnej notacji emocji zawartych w muzyce. Przeprowadzono serię testów subiektywnych oraz automatyczne rozpoznawanie nastroju muzyki z wykorzystaniem wybranych algorytmów sztucznej inteligencji oraz porównano otrzymane wyniki.
EN
This work is focused on an approach based on the emotional content of music and its automatic recognition. A vector of features describing emotional content of music was proposed. Additionally, a graphical model dedicated to the subjective evaluation of mood of music was created. A series of listening tests was carried out, and results were compared with automatic mood recognition employing SOM (Self Organizing Maps) and ANN (Artificial Neural Networks).
Rocznik
Tom
Strony
336--341, CD
Opis fizyczny
Bibliogr. 31 poz., rys., tab.
Twórcy
  • Katedra Systemów Multimedialnych, Politechnika Gdańska, Wydział Elektroniki, Telekomunikacji i Informatyki, ul. Narutowicza 11/12, 80-233 Gdańsk
Bibliografia
  • [1] Brinker Bert, Dinther Ralph, Skowronek Janto.2012. "Expressed music mood classification compared with valence and arousal ratings". EURASIP J. Audio, Speech, and Music Processing, 1, http://link.springer.com/journal/13636/2012/1/page/1, dostęp 6.04.2017
  • [2] Casey Michael, Veltkamp Remco, Goto Masataka, Leman Marc, Rhodes Christophe., Slaney Malcolm. 2008. "Content-Based Music Information Retrieval: Current Directions and Future Challenges". Proceedings of the IEEE, 96(4): 668-696.
  • [3] Feng Yazhong, Zhuang Yueting, Pan Yunhe. 2003. "Popular music retrieval by detecting mood". ACM SIGIR: 375–376.
  • [4] Hevner Kate. 1937. "The affective value of pitch and tempo in music". American Journal of Psychology, 49: 621-630.
  • [5] Huron David. 2006. "Sweet anticipation: Music and the psychology of exectation". Cambridge, MA: MIT Press.
  • [6] Kim JungHyun, Lee Seungjae, Kim SungMin, Yoo Won Young. 2011. "Music mood classification model based on Arousal-Valence values". ICACT: 292–295.
  • [7] Kostek Bożena. 2011 . "Content-Based Approach to Automatic Recommendation of Music". 131 Audio Eng. Soc. Convention, New York.
  • [8] Kostek Bożena. 2011. "Observing uncertainty in music tagging by automatic gaze tracking". 42nd International Audio Eng. Soc. Conference, Ilmenau, Germany,
  • [9] Kostek Bożena, Kupryjanow Adam, Żwan Paweł, Jiang Wenxin, Ras Zbigniew, Wojnarski Marcin, Swietlicka Joanna. 2011. "Report of the ISMIS 2011 Contest: Music Information Retrieval, Foundations of Intelligent Systems". ISMIS 2011, M. Kryszkiewicz et al. (Eds), LNAI 6804: 715-724, Springer Verlag, Berlin, Heidelberg.
  • [10] Kostek Bożena, Plewa Magdalena. 2013. "Parametrization and correlation analysis applied to music mood classification". International J. of Computational Intelligence Studies, 2(1): 4-25.
  • [11] Knees Peter, Schedl Markus. 2015. "Music Retrieval and Recommendation: A Tutorial Overview". 38th International ACM SIGIR Conference on Research and Development in Information Retrieval, 1133- 1136.
  • [12] Lartillot Olivier. 2012. "MIRtoolbox 1.4: User’s Manual". Finnish Centre of Excellence in Interdisciplinary Music Research Swiss Center for Affective Sciences.
  • [13] Laurier Cyril, Lartillot Olivier, Eerola Tuomas, Toiviainen Petri. 2009. "Exploring Relationships between Audio Features and Emotion in Music". Conference of European Society for the Cognitive Sciences of Music.
  • [14] Mazur Zygmunt, Wiklak Konrad. 2015. "Modification of Page Rank Algorithm for Music Information Retrieval Systems". New Research in Multimedia and Internet Systems, IV: 227-237, Springer.
  • [15] MIREX. 2009. Mood Multi Tag Data Description, http://www.musicir.org/archive/papers/Mood_Multi_Tag_Data_Description.pdf, dostęp 04.04.2017.
  • [16] Napiorkowski Sebastian. 2015. "Music mood recognition: State of the Art Review, University of Aachen report". http://hpac.rwthaachen.de/teaching/sem-mus-15/reports/Napiorkowski.pdf, dostęp 04.04.2017.
  • [17] Plewa Magdalena. 2016. "Automatic mood indexing of music excerpts based on correlation between subjective evaluation and feature vector", praca doktorska, Politechnika Gdańska, WydziałElektroniki, Telekomunikacji i Informatyki.
  • [18] Plewa Magdalena, Kostek Bożena. 2012. "Creating Mood Dictionary Associated with Music". 132 AES Convention, Paper No. 8607.
  • [19] Plewa Magdalena, Kostek Bożena. 2012. "A Study on Correlation Between Tempo and Mood of Music". 133 Audio Eng. Soc. Convention, Paper No. 8800, San Francisco.
  • [20] Plewa Magdalena, Kostek Bożena. 2013. "Multidimensional Scaling Analysis Applied to Music Mood Recognition". 134th AES Convention, Paper No. 8876.
  • [21] Plewa Magdalena, Kostek Bożena. 2015. "Music Mood Visualization Using Self-Organizing Maps". Archives of Acoustics, 50(4): 513-525.
  • [22] Plewa Magdalena, Kostek Bożena. 2015. "Graphical Representation Of Music Set Based On Mood Of Music". ISSET, Warszawa.
  • [23] Plewa Magdalena, Kostek Bożena, Bień Mateusz. 2016. "Graphical Interface Aimed for Organizing Music Based on Mood of Music". 140th AES Convention, Paper No. 9568.
  • [24] Plutchik's Color Wheel Of Emotion http://www.writeincolor.com/2011/03/26/plutchikscolor-wheel-of-emotion, dostęp 26.04.2017.
  • [25] Russel James. 1980. "A circumplex model of affects". Journal of personality and Social Psychology, 39: 1161-1178.
  • [26] Saari Pasi, Eerola Tuomas, Fazekas Gyorgy, Barthet Mathieu, Lartillot Olivier, Sandler Mark. 2013. "The role of audio and tags in music mood prediction: a study using semantic layer projection". 14th International Society for Music Information Retrieval Conference.
  • [27] Schubert Emery. 2003. "Update of the Hevner adjective checklist". Perceptual and Motor Skills, 96: 1117-1122.
  • [28] Thayer Robert. 1989. "The Biopsychology of Mood and Arousal", Oxford University Press.
  • [29] Wang Xing, Chen Xiaoou, Yang Deshun, Wu Yuqian. 2011. "Music emotion classification of Chinese songs based on lyrics using TF*IDF and rhyme" ISMIR, 765–770.
  • [30] Zentner Marcel, Grandjean Didier, Scherer Klaus. 2008. "Emotions evoked by the sound of music: Characterization, classification, and measurement". Emotion, 8: 494-521.
  • [31] Zhao Zhijun, Xie Lingyun, Liu Jing, Wu Wen. 2010. "The analysis of mood taxonomy comparison between Chinese and Western music". In: Proc. ICSPS, VI: 606–610.
Uwagi
PL
Opracowanie ze środków MNiSW w ramach umowy 812/P-DUN/2016 na działalność upowszechniającą naukę (zadania 2017)
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-01f7c8c2-a8be-4714-ba1d-21f8d192b426
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.