Tytuł artykułu
Treść / Zawartość
Pełne teksty:
Identyfikatory
Warianty tytułu
Analiza potencjałów wywołanych (ERPs) na potrzeby rozpoznawania emocji
Języki publikacji
Abstrakty
The primary objective of this study was to determine the feasibility of classifying emotions into three categories (positive, negative, and neutral) using event-related potentials (ERPs) for individual users. Visual stimuli from the International Affective Picture System (IAPS) database were utilized. Various features, such as signal samples, discrete wavelet transform, discrete Fourier transform, and discrete cosine transform, were computed from one-second electroencephalographic signal (EEG) segments following the presentation of the stimulus. For the classification task, a one-nearest neighbor classifier (1-NN) was employed. The research yielded a system for preprocessing and classifying emotions. The study involved eight participants. The experiments presented in this paper demonstrate the possibility of distinguishing emotions into three categories (pleasant, unpleasant, and neutral) for a single user, achieving an average accuracy level of 87%. However, when considering all users collectively, we achieved a classification accuracy of 96%.
Głównym celem artykułu było określenie możliwości klasyfikacji emocji w podziale na trzy kategorie (pozytywne, negatywne i neutralne) przy użyciu potencjałów wywołanych (ERPs) dla poszczególnych użytkowników. Wykorzystano bodźce wizualne z bazy danych International Affective Picture System (IAPS). Jako cechy zastosowano: próbki sygnału, dyskretna transformacja falkowa, dyskretna transformacja Fouriera oraz dyskretna transformacja kosinusowa, uzyskane z jednosekundowych segmentów sygnału elektroencefalograficznego (EEG) po prezentacji bodźca. Do zadania klasyfikacji zastosowano klasyfikator najbliższego sąsiada (1-NN). W wyniku prac powstał system do klasyfikowania emocji. W badaniu uczestniczyło ośmioro uczestników. Eksperymenty przedstawione w tym artykule pokazują możliwość rozróżniania emocji na trzy kategorie (przyjemne, nieprzyjemne i neutralne) dla jednego użytkownika, osiągając średni poziom dokładności 87%. Jednakże, biorąc pod uwagę wszystkich użytkowników łącznie, osiągnięto dokładność klasyfikacji na poziomie 96%.
Wydawca
Czasopismo
Rocznik
Tom
Strony
290--293
Opis fizyczny
Bibliogr. 20 poz., rys., tab.
Twórcy
autor
- Warsaw University of Technology, Institute of Theory of Electrical Engineering, Measurements and Information Systems, Koszykowa 75, 00-662 Warsaw
autor
- Warsaw University of Technology, Institute of Theory of Electrical Engineering, Measurements and Information Systems, Koszykowa 75, 00-662 Warsaw
autor
- Warsaw University of Technology, Institute of Theory of Electrical Engineering, Measurements and Information Systems, Koszykowa 75, 00-662 Warsaw
Bibliografia
- [1] P. A. Pérez-Toro, J. C. Vásquez-Correa, T. Bocklet, E. Nöth, and J. R. Orozco-Arroyave, “User State Modeling Based on the Arousal-Valence Plane: Applications in Customer Satisfaction and Health-Care,” IEEE Transactions on Affective Computing, vol. 14, no. 2, pp. 1533–1546, Apr. 2023, doi: 10.1109/TAFFC.2021.3112543.
- [2] F. Dolcos and R. Cabeza, “Event-related potentials of emotional memory: Encoding pleasant, unpleasant, and neutral pictures,” Cognitive, Affective, & Behavioral Neuroscience, vol. 2, no. 3, pp. 252–263, Sep. 2002, doi: 10.3758/CABN.2.3.252.
- [3] E. H. Houssein, A. Hammad, and A. A. Ali, “Human emotion recognition from EEG-based brain–computer interface using machine learning: a comprehensive review,” Neural Comput & Applic, vol. 34, no. 15, pp. 12527–12557, Aug. 2022, doi: 10.1007/s00521-022-07292-4.
- [4] N. S. Suhaimi, J. Mountstephens, and J. Teo, “EEG-Based Emotion Recognition: A State-of-the-Art Review of Current Trends and Opportunities,” Computational Intelligence and Neuroscience, vol. 2020, p. e8875426, Sep. 2020, doi: 10.1155/2020/8875426.
- [5] P. Zhong, D. Wang, and C. Miao, “EEG-Based Emotion Recognition Using Regularized Graph Neural Networks,” IEEE Transactions on Affective Computing, vol. 13, no. 3, pp. 1290–1301, Jul. 2022, doi: 10.1109/TAFFC.2020.2994159.
- [6] X. Li et al., “EEG Based Emotion Recognition: A Tutorial and Review,” ACM Comput. Surv., vol. 55, no. 4, p. 79:1-79:57, Nov. 2022, doi: 10.1145/3524499.
- [7] S. A. Shankman and D. N. Klein, “The relation between depression and anxiety: an evaluation of the tripartite, approach-withdrawal and valence-arousal models,” Clinical Psychology Review, vol. 23, no. 4, pp. 605–637, Jul. 2003, doi: 10.1016/S0272-7358(03)00038-2.
- [8] R. N. Newsome, M. R. Dulas, and A. Duarte, “The effects of aging on emotion-induced modulations of source retrieval ERPs: evidence for valence biases,” Neuropsychologia, vol. 50, no. 14, pp. 3370–3384, Dec. 2012, doi: 10.1016/j.neuropsychologia.2012.09.024.
- [9] G. Hajcak and T. A. Dennis, “Brain Potentials During Affective Picture Processing in Children,” Biol Psychol, vol. 80, no. 3, pp. 333–338, Mar. 2009, doi: 10.1016/j.biopsycho.2008.11.006.
- [10] O. Pollatos, W. Kirsch, and R. Schandry, “On the relationship between interoceptive awareness, emotional experience, and brain processes,” Brain Res Cogn Brain Res, vol. 25, no. 3, pp. 948–962, Dec. 2005, doi: 10.1016/j.cogbrainres.2005.09.019.
- [11] L. Carretié and J. Iglesias, “An ERP study on the specificity of facial expression processing,” International Journal of Psychophysiology, vol. 19, no. 3, pp. 183–192, Apr. 1995, doi: 10.1016/0167-8760(95)00004-C.
- [12] A. R. Hidalgo-Muñoz et al., “Application of SVM-RFE on EEG signals for detecting the most relevant scalp regions linked to affective valence processing,” Expert Systems with Applications, vol. 40, no. 6, pp. 2102–2108, May 2013, doi: 10.1016/j.eswa.2012.10.013.
- [13] P. Murugappan, R. Nagarajan, and S. Yaacob, “Combining Spatial Filtering and Wavelet Transform for Classifying Human Emotions Using EEG Signals,” Journal of Medical and Biological Engineering, vol. 31, pp. 45–51, Nov. 2010, doi: 10.5405/jmbe.710.
- [14] C. A. Frantzidis et al., “On the classification of emotional biosignals evoked while viewing affective pictures: an integrated data-mining-based approach for healthcare applications,” IEEE Trans Inf Technol Biomed, vol. 14, no. 2, pp. 309–318, Mar. 2010, doi: 10.1109/TITB.2009.2038481.
- [15] P. Hot, Y. Saito, O. Mandai, T. Kobayashi, and H. Sequeira, “An ERP investigation of emotional processing in European and Japanese individuals,” Brain Research, vol. 1122, no. 1, pp. 171–178, Nov. 2006, doi: 10.1016/j.brainres.2006.09.020.
- [16] B. Chakravarthi, S.-C. Ng, M. R. Ezilarasan, and M.-F. Leung, “EEG-based emotion recognition using hybrid CNN and LSTM classification,” Frontiers in Computational Neuroscience, vol. 16, 2022, Accessed: Jul. 04, 2023. [Online]. Available: https://www.frontiersin.org/articles/10.3389/fncom.2022.1019 776
- [17] M. Ramzan and S. Dawn, “Fused CNN-LSTM deep learning emotion recognition model using electroencephalography signals,” International Journal of Neuroscience, vol. 133, no. 6, pp. 587–597, Jun. 2023, doi: 10.1080/00207454.2021.1941947.
- [18] M. M. Bradley and P. J. Lang, “International Affective Picture System,” in Encyclopedia of Personality and Individual Differences, V. Zeigler-Hill and T. K. Shackelford, Eds., Cham: Springer International Publishing, 2017, pp. 1–4. doi: 10.1007/978-3-319-28099-8_42-1.
- [19] H. Cecotti, M. P. Eckstein, and B. Giesbrecht, “Single-Trial Classification of Event-Related Potentials in Rapid Serial Visual Presentation Tasks Using Supervised Spatial Filtering,” IEEE Transactions on Neural Networks and Learning Systems, vol. 25, no. 11, pp. 2030–2042, Nov. 2014, doi: 10.1109/TNNLS.2014.2302898.
- [20] M. I. Singh and M. Singh, “Emotion Recognition: An Evaluation of ERP Features Acquired from Frontal EEG Electrodes,” Applied Sciences, vol. 11, no. 9, Art. no. 9, Jan. 2021, doi: 10.3390/app11094131.
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki i promocja sportu (2025).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-06e37a48-a607-40ca-bbf8-b0f40737afaf
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.