PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Cognitive perception of complex scenes in the process of eye tracking studies

Identyfikatory
Warianty tytułu
PL
Kognitywne postrzeganie scen złożonych w procesie badań eye-trackingowych
Języki publikacji
EN
Abstrakty
EN
The article presents studies which involve the way of perceiving complex scenes in the task of scenery analysis for their usefulness in the artificial intelligence methods. The studies were conducted using the eye-tracker SMI Red 500. A series of experiments was carried out on a group of people registering particular trajectories of attention. Observer’s task was to form a conclusion that would approve or disapprove the thesis that was formulated in the question concerning the presented scene. Next, the analysis of developed series of the scenery components was performed. Observations of the experiments’ results may significantly develop artificial intelligence algorithms used in processing and recognizing of images. The analyses of conducted measurements showed some differences in perception of complex scenes for particular persons that took part in experiment as well as some similarities and differences in same-sex groups.
PL
W artykule przedstawiono badania sposobu postrzegania scen złożonych w zadaniu analizy scenerii pod kątem wykorzystania ich użyteczności dla metod sztucznej inteligencji. Badania przeprowadzono z wykorzystaniem eye-trackera SMI Red 500. Serię eksperymentów przeprowadzono na grupie osób rejestrując poszczególne trajektorie atencji. Zadaniem obserwatora było sformułowanie konkluzji potwierdzającej lub odrzucającej tezę postawioną w pytaniu do przedstawionej sceny. Kolejno analizie poddano powstałe szeregi analizowanych komponentów scenerii. Obserwacje wyników eksperymentów mogą stanowić istotne rozwinięcie algorytmów sztucznej inteligencji wykorzystywanych w przetwarzaniu i rozpoznawaniu obrazów. Na podstawie analiz przeprowadzonych pomiarów stwierdzono różnice postrzegania scen złożonych dla poszczególnych osób biorących udział w eksperymencie, a także pewne podobieństwa i różnice w grupach tej samej płci.
Rocznik
Strony
5--9
Opis fizyczny
Bibliogr. 19 poz., il.
Twórcy
autor
  • University of Rzeszow, Faculty of Mathematics and Natural Sciences Department of Computer Engineering, ul. Pigonia 1, 35-959 Rzeszów, Poland
autor
  • University of Rzeszow, Faculty of Mathematics and Natural Sciences Department of Computer Engineering, ul. Pigonia 1, 35-959 Rzeszów, Poland
  • University of Information Technology and Management in Rzeszow, Faculty of Applied Informatics, Department of Applied Information, ul. Sucharskiego 2, 35-225 Rzeszow, Poland
autor
  • Student Rzeszow University of Technology, The Faculty of Mechanical Engineerng and Aeronautics
Bibliografia
  • [1] Duchowski A. T., (2007) Eye Tracking Methodology: Theory and Practice, Springer, Londyn.
  • [2] Rutkowski L., (2005) Artificial Intelligence Methods and Techniques: Computational Intelligence, Wydawnictwo Naukowe PWN, (in Polish).
  • [3] Duch W., (1998) What is cognitive science?, Cognitive Science and Media in Education 1: 9-50, (in Polish).
  • [4] E. Dudek-Dyduch, (2015) Algebraic logical metamodel of decision processes - new metaheuristics, Artificial Intelligence and Soft Computing ICAISC 2015, Part I, LNAI, vol. 9119, pp. 541-554, Springer.
  • [5] E. Dudek-Dyduch, (2015) Modeling manufacturing processes with disturbances - a new method based on algebraic-logical meta-model In. Rutkowski L. [et al.]. Artificial Intelligence and Soft Computing, ICAISC 2015, Part II , LNAI, vol. 9120, pp. 353-363, Springer.
  • [6] Eberz, S., Rasmussen, K. B., Lenders, V., & Martinovic, I., (2015) Preventing lunchtime attacks: Fighting insider threats with eye movement biometrics, Presented at the NDSS Symposium 2015, San Diego, CA, uSA: Internet Society.
  • [7] Hryniuk K., (2011) Reading research supported with eye-tracking methods, Lingwistyka Stosowana/ Applied Linguistics/Angewandte Linguistik 4: 191-198, (in Polish).
  • [8] Hua, Y., Yang, M., Zhao, Z., Zhou, R., & Cai, A., On semantic-instructed attention: From video eye-tracking dataset to memory-guided probabilistic saliency model, Neurocomputing.
  • [9] Lu, Y., Zheng, W.-L., Li, B., & Lu, B.-L., (2015) Combining eye movements and EEG to enhance emotion recognition, Proc. of the International Joint Conference on Artificial Intelligence (IJCAI’15).
  • [10] MacFadden, Alastair, Lorin Elias, and Deborah Saucier., (2003) Males and females scan maps similarly, but give directions differently. Brain and Cognition 53.2: 297-300.
  • [11] Orlosky, J., Toyama, T., Sonntag D., & Kiyokawa, K., (2014) using eye-gaze and visualization to augment memory. A framework for improving context recognition and recall, N. Streitz and P. Markopoulos (Eds.). Proceedings of the 16th International Conference on Human-Computer Interaction, LNCS Springer 8530, pp. 282-291.
  • [12] Płużyczka M., Translational Difficulties Through the Eye-tracking Len, ROCZNIK PRZEKłADOZNAWCZY. Studia nad teorią, praktyką i dydaktyką przekładu Tom: 8, Strony: 59-76, (in Polish).
  • [13] Pfeiffer, T. & Memili, C., (2015) GPu-accelerated attention mp generation for dynamic 3D scenes, Proceedings of the IEEE VR 2015. Höllerer T, Interrante V, Lécuyer A, II JES (Eds); IEEE: 257-258.
  • [14] S. Grucza, M. Płużyczka, P. Soluch, Seen differently. From Polish eyetracking research. Wydawnictwo Naukowe Instytutu Kulturologii i Lingwistyki Antropocentrycznej, uniwersytet Warszawski (in Polish).
  • [15] Soluch P., Tarnowski A., (2013) On Eye-Tracking Methodology, Lingwistyka Stosowana/Applied Linguistics/Angewandte Linguistik, 7, pp. 115-134, (in Polish).
  • [16] Sharma, K., Hostettler, L.O., Lemaignan, S., Fink, J., Mondada, F., & Dillenbourg, P., (2014) Eye tracking with educational robots: A cautionary tale, Dissertation.
  • [17] Smith, J., Booth, T., & Bailey, R., (2014) Refresh rate modulation for perceptually optimized computer graphics, International Conference on Computer Graphics Theory and Applications (GRAPP 2014).
  • [18] Toyama, T., Orlosky, J., Sonntag, D., & Kiyokawa, K., (2014) A natural interface for multi-focal plane head mounted displays using 3D gaze, AVI ‘14 Proceedings of the 2014 International Working Conference on Advanced Visual Interfaces, pp. 25-32.
  • [19] Xu, J., Mukherjee, L., Li, Y., Warner, J., Rehg, J. M., & Singh, V., (2015) Gaze-enabled egocentric video summarization via constrained submodular maximization, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), June.
Uwagi
Opracowanie rekordu w ramach umowy 509/P-DUN/2018 ze środków MNiSW przeznaczonych na działalność upowszechniającą naukę (2018).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-70a6aea8-15b1-4196-91ba-17e0a9bf66df
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.