Tytuł artykułu
Autorzy
Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
Analiza obrotów głowy 3D do kalibracji śledzenia ruchu gałek ocznych w dużych monitorach komputerowych
Języki publikacji
Abstrakty
In order to operate in the center of the vision field, the computer user maintains a frontal pose with respect to the screen. In this ideal situation, the computer user can visually explore the screen, moving only the eyes. The user activity changes when the computer screen is large, and it is necessary to change the pose and gaze orientation in order to explore the entire screen. The availability of high-end and high-size computer monitors (621mm width, 341mm height, or bigger), improves the possibilities of computer visualization but requires constant head pose changes to be performed by the computer user. In this study, we evaluate the 3D head rotation activity for the process of calibration on eye tracking. We compare the activity data for a fixed zigzag calibration pattern with respect to a random calibration pattern. The results show that the rotation data provide important information about the user screen exploration, and the incorporation of head rotations can contribute to reducing the quantity of information required to estimate the parameters of calibration models.
Aby działać w centrum pola widzenia, użytkownik komputera utrzymuje pozycję frontalną względem ekranu. W tej idealnej sytuacji użytkownik komputera może wizualnie zbadać cały ekran, poruszając jedynie oczami. Aktywność użytkownika zmienia się, gdy ekran komputera jest duży i konieczna jest zmiana pozy i orientacji spojrzenia w celu eksploracji całego ekranu. Dostępność wysokiej klasy monitorów komputerowych (621mm szerokości, 341mm wysokości lub większych) zwiększa możliwości wizualizacji komputerowej, ale wymaga ciągłej zmiany pozycji głowy przez użytkownika komputera. W tej pracy oceniamy aktywność rotacji głowy w 3D dla procesu kalibracji na eye trackingu. Porównujemy dane aktywności dla stałego zygzakowatego wzorca kalibracji w odniesieniu do losowego wzorca kalibracji. Wyniki pokazują, że dane o rotacji dostarczają ważnych informacji o eksploracji ekranu przez użytkownika, a włączenie rotacji głowy może przyczynić się do zmniejszenia ilości informacji wymaganych do oszacowania parametrów modeli kalibracyjnych.
Wydawca
Czasopismo
Rocznik
Tom
Strony
278--281
Opis fizyczny
Bibliogr. 20 poz., rys.
Twórcy
autor
- Netrix S.A, Research and Development Center, Związkowa 26, 20-148 Lublin
autor
- Netrix S.A, Research and Development Center, Związkowa 26, 20-148 Lublin
- University of Economics and Innovation in Lublin, ul. Projektowa 4, 20-209 Lublin
Bibliografia
- [1] Rymarczyk T., Kłosowski G., Hoła A., Sikora J., TchórzewskiP., Skowron Ł., Optimising the Use of Machine Learning Algorithms in Electrical Tomography of Building Walls: Pixel Oriented Ensemble Approach, Measurement, 188 (2022), 110581.
- [2] Koulountzios P., Rymarczyk T., Soleimani M., Ultrasonic Time of-Flight Computed Tomography for Investigation of Batch Crystallisation Processes, Sensors, 21 (2021), No. 2, 639.
- [3] Kłosowski G., Rymarczyk T., Niderla K., Rzemieniak M., Dmowski A., Maj M., Comparison of Machine Learning Methods for Image Reconstruction Using the LSTM Classifier in Industrial Electrical Tomography, Energies 2021, 14 (2021), No. 21, 7269.
- [4] Rymarczyk T., Król K. Kozłowski E., Wołowiec T., Cholewa Wiktor M., Bednarczuk P., Application of Electrical Tomography Imaging Using Machine Learning Methods for the Monitoring of Flood Embankments Leaks, Energies, 14 (2021), No. 23, 8081.
- [5] Majerek D., Rymarczyk T., Wójcik D., Kozłowski E., Rzemieniak M., Gudowski J., Gauda K., Machine Learning and Deterministic Approach to the Reflective Ultrasound Tomography, Energies, 14 (2021), No. 22, 7549.
- [6] Kłosowski G., Rymarczyk T., Kania K., Świć A., Cieplak T., Maintenance of industrial reactors supported by deep learning driven ultrasound tomography, Eksploatacja i Niezawodnosc – Maintenance and Reliability; 22 (2020), No 1, 138–147.
- [7] Gnaś, D., Adamkiewicz, P., Indoor localization system using UWB, Informatyka, Automatyka, Pomiary W Gospodarce I Ochronie Środowiska, 12 (2022), No. 1, 15-19.
- [8] Styła, M., Adamkiewicz, P., Optimisation of commercial buildingmanagement processes using user behaviour analysis systems supported by computational intelligence and RTI, Informatyka, Automatyka, Pomiary W Gospodarce I Ochronie Środowiska, 12 (2022), No 1, 28-35.
- [9] Korzeniewska, E., Krawczyk, A., Mróz, J., Wyszyńska, E., Zawiślak, R., Applications of smart textiles in post-stroke rehabilitation, Sensors (Switzerland), 20 (2020), No. 8, 2370.
- [10] Sekulska-Nalewajko, J., Gocławski, J., Korzeniewska, E., A method for the assessment of textile pilling tendency using optical coherence tomography, Sensors (Switzerland), 20 (2020), No. 13, 1–19, 3687.
- [11] Morimoto, C. H., & Mimica, M. R., Eye gaze tracking techniques for interactive applications. Computer vision and image understanding, 98 (2005), No.1, 4-24.
- [12]Blignaut, P., A new mapping function to improve the accuracy of a video-based eye tracker. In Proceedings of the south african institute for computer scientists and information technologists conference , 2013, 56-59.
- [13] Burgos-Artizzu, X. P., Perona, P., & Dollár, P., Robust face landmark estimation under occlusion. In Proceedings of the IEEE international conference on computer vision , 2013, 1513-1520.
- [14] Viola, P., & Jones, M., Rapid object detection using a boosted cascade of simple features. In Proceedings of the 2001 IEEE computer society conference on computer vision and pattern recognition. CVPR 2001, 1 (2001).
- [15] Kaddouhi El, Saaidi S., Abarkan A., Eye detection based on the Viola-Jones method and corners points. Multimedia Tools and Applications, 76 (2017), No. 21, 23077-23097.
- [16]Kong, A., Ahuja, K., Goel, M., & Harrison, C., EyeMU Interactions: Gaze+ IMU Gestures on Mobile Devices. In Proceedings of the 2021 International Conference on Multimodal Interaction, 2021, 577-585.
- [17]Ahuja, K., Islam, R., Parashar, V., Dey, K., Harrison, C., & Goel, M., Eyespyvr: Interactive eye sensing using off-the-shelf, smartphone-based vr headsets. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 2 (2018), No. 2, 1-10.
- [18]Ahuja, K., Banerjee, R., Nagar, S., Dey, K., & Barbhuiya, F., Eye center localization and detection using radial mapping. In 2016 IEEE International Conference on image processing (ICIP), 2016, 3121-3125.
- [19]Klamka, K., Siegel, A., Vogt, S., Göbel, F., Stellmach, S., & Dachselt, R., Look & pedal: Hands-free navigation in zoomable information spaces through gaze-supported foot input. In Proceedings of the 2015 ACM on international conference on multimodal interaction, 2015, 123-130.
- [20] Papoutsaki, A., Gokaslan, A., Tompkin, J., He, Y., & Huang, J. (2018, June). The eye of the typer: a benchmark and analysis of gaze behavior during typing. In Proceedings of the 2018 ACM Symposium on Eye Tracking Research & Applications, 2018, 1-9.
Uwagi
Opracowanie rekordu ze środków MEiN, umowa nr SONP/SP/546092/2022 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2022-2023).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-30ca9119-b7f5-4e85-98ca-83d4eaeef97f