PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

A system for synchronous acquisition of selected physiological signals aimed at emotion recognition

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Stanowisko badawcze do rejestracji wybranych sygnałów fizjologicznych na użytek rozpoznawania emocji
Języki publikacji
EN
Abstrakty
EN
This article contains a description of a data acquisition system that enables simultaneous recording of selected human physiological signals, resulting from brain electrical activity, eye movement, facial expression and skin-galvanic reaction. The signals, recorded using various types of sensors/devices, are fully synchronized and can be used to detect and identify emotions.
PL
W artykule zamieszczono opis autorskiego stanowiska badawczego umożliwiającego równoczesną rejestrację wybranych sygnałów fizjologicznych człowieka, powstałych w efekcie elektrycznej aktywności mózgu, ruchu gałek ocznych, mimiki twarzy oraz reakcji skórnogalwanicznej. Sygnały zarejestrowane z użyciem różnego typu czujników/urządzeń są ze sobą w pełni zsynchronizowane i mogą być wykorzystane do wykrywania i rozpoznawania emocji.
Rocznik
Strony
327--331
Opis fizyczny
Bibliogr. 19 poz., fot., rys., tab., wykr.
Twórcy
autor
  • Politechnika Warszawska, Instytut Elektrotechniki Teoretycznej i Systemów Informacyjno-Pomiarowych, ul. Koszykowa 75, 00-662 Warszawa
  • Politechnika Warszawska, Instytut Elektrotechniki Teoretycznej i Systemów Informacyjno-Pomiarowych, ul. Koszykowa 75, 00-662 Warszawa
autor
  • Politechnika Warszawska, Instytut Elektrotechniki Teoretycznej i Systemów Informacyjno-Pomiarowych, ul. Koszykowa 75, 00-662 Warszawa
autor
  • Politechnika Warszawska, Instytut Elektrotechniki Teoretycznej i Systemów Informacyjno-Pomiarowych, ul. Koszykowa 75, 00-662 Warszawa
Bibliografia
  • [1] Frantzidis C. A., Bratsas C., Papadelis C. L., Konstantinidis E., Pappas C., Bamidis P. D., Toward Emotion Aware Computing: An Integrated Approach Using Multichannel Neurophysiological Recordings and Affective Visual Stimuli, IEEE Transactions on Information Technology in Biomedicine, 14 (2010), no. 3, 589–597.
  • [2] Kim M.-K., Kim M., Oh E., Kim S.-P., A Review on the Computational Methods for Emotional State Estimation from the Human EEG, Computational and Mathematical Methods in Medicine, 2013.
  • [3] Li Q., Yang Z., Liu S., Dai Z., Liu Y., The study of emotion recognition from physiological signals, 2015 Seventh International Conference on Advanced Computational Intelligence (ICACI), 2015, 378–382.
  • [4] Jenke R., Peer A., Buss M., Feature Extraction and Selection for Emotion Recognition from EEG, IEEE Transactions on Affective Computing, 5 (2014), no. 3, 327– 339.
  • [5] Wu G., Liu G., Hao M., The Analysis of Emotion Recognition from GSR Based on PSO, 2010 International Symposium on Intelligence Information Processing and Trusted Computing (IPTC), 2010, 360–363.
  • [6] Liu Y., Sourina O., EEG Databases for Emotion Recognition, 2013 International Conference on Cyberworlds (CW), 2013, 302–309.
  • [7] Koelstra S., Muehl C., Soleymani M., Lee J. S., Yazdani A., Ebrahimi T., Pun T., Nijholt A., Patras I., DEAP: A Database for Emotion Analysis using Physiological Signals, IEEE Transactions on Affective Computing, 3 (2012), no. 1, 18– 31.
  • [8] Soleymani M., Lichtenauer J., Pun T., Pantic M., A multimodal database for affect recognition and implicit tagging, IEEE Transactions on Affective Computing, 3 (2012), no. 1, 42–55.
  • [9] Lewenstein K., Komputerowe wspomaganie diagnostyki medycznej - przykłady rozwiązań, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 2015.
  • [10] Tadeusiewicz R., Neurocybernetyka teoretyczna, Wydawnictwo Uniwersytetu Warszawskiego, Warszawa, 2009.
  • [11] Mavadati S. M., Mahoor M. H., Bartlett K., Trinh P., Cohn J. F., DISFA: A Spontaneous Facial Action Intensity Database, IEEE Transactions on Affective Computing, 4 (2013), no. 2, 151–160.
  • [12] Microsoft Kinect, [Online], available at: https://msdn.microsoft.com/en-us/library/jj131033.aspx
  • [13] Bradley M. M., Miccoli L., Escrig M. A., Lang P. J., The pupil as a measure of emotional arousal and autonomic activation, Psychophysiology, 45 (2008), no. 4, 602–607.
  • [14] Rafal Ohme D. R., Analysis of Neurophysiological Reactions to Advertising Stimuli by Means of EEG and Galvanic Skin Response Measures, Journal of Neuroscience, Psychology, and Economics, 2 (2009), no. 1, 21–31.
  • [15] Mandryk R. L., Atkins M. S., A Fuzzy Physiological Approach for Continuously Modeling Emotion During Interaction with Play Technologies, Int. J. Hum.-Comput. Stud., 65 (2007), no. 4, 329–347.
  • [16] G.tec medical engineering, [Online], available at: http://www.gtec.at/Products/Hardware-and- Accessories/g.USBamp-Specs-Features
  • [17] Ekman P., Friesen W., Facial Action Coding System, Consulting Psychologists Press, Stanford University, Palo Alto, 1977.
  • [18] Tian Y. I., Kanade T., Cohn J. F., Recognizing action units for facial expression analysis, IEEE Transactions on Pattern Analysis and Machine Intelligence, 23 (2001), no. 2, 97– 115.
  • [19] Dalmaijer E., Is the low-cost EyeTribe eye tracker any good for research?, PeerJ PrePrints https://doi.org/10.7287/peerj.preprints.585v1, 2014.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-f1aae4ee-a8d0-4c4e-819e-c8f72f8e4ec4
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.