PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Bezdotykowy interfejs klawiatury ekranowej dla systemów GNU/Linux

Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
A touchless onscreen keyboard interface for GNU/Linux systems
Języki publikacji
PL
Abstrakty
PL
Artykuł porusza problem bezdotykowego interfejsu klawiatury ekranowej przeznaczonego przede wszystkim dla osób niepełnosprawnych oraz kwestie realizacji projektu na odpowiedniej platformie sprzętowo-programowej. Proponowane rozwiązanie wpisuje się w obecną tendencję eliminowania fizycznych kontrolerów i zastępowania ich naturalnymi gestami użytkownika. W artykule omówiono podejścia stosowane w bezdotykowych interfejsach człowiek-komputer, przedstawiono ideę bezdotykowego interfejsu klawiatury ekranowej oraz kluczowe mechanizmy działania proponowanego rozwiązania.
EN
In the paper the problem of a non-contact onscreen keyboard interface is addressed. There is a great number of people with disabilities who cannot have an effective control over electronic devices. They are unable to use standard input devices (mouse and keyboard) or take advantage from new sensors (e.g. Kinect). Communication with other people over the Internet and access to information are only possible with some control over computer equipment. There are four main approaches in touchless interfaces: eyetracking [1, 2], brain–computer interface [3, 4], speech recognition [5] and computer vision [6-9]. These techniques are addressed in Section 1 and the paper focuses on the computer vision approaches using them for a touchless onscreen keyboard – a visual input interface for disabled. The idea of the interface, named QVirtboard, is presented in Fig. 1 and described in Section 2. The gesture interpreter processes a video stream from a simple webcam. The user interaction is through movement (usually head). User movements interpreted as gestures allow a key on the keyboard selection. Image analysis is based on colour image processing [12] and background modeling in video sequences [10, 11]. It is described in Section 3 and examples are shown in Fig. 2. To minimize the distance between each key, a special keyboard layout is proposed in Section 4 (Fig. 4). The layout takes into account the frequency of occurring the pairs of Polish language letters (Fig. 3 presents the appropriate diagram). The solution designed for GNU/Linux systems is open and extensible. The project is accessible through the sourceforge.net service http:// sourceforge.net/projects/qvirtboard/.
Wydawca
Rocznik
Strony
815--817
Opis fizyczny
Bibliogr. 12 poz., rys.
Twórcy
  • Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, ul. Żołnierska 49, 71-210 Szczecin
autor
  • Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, ul. Żołnierska 49, 71-210 Szczecin
Bibliografia
  • [1] Mantiuk R., Kowalik M., Nowosielski A., Bazyluk B.: Do-It-Yourself Eye Tracker: Low-Cost Pupil-Based Eye Tracker for Computer Graphics Applications. Lecture Notes in Computer Science 7131, 115–125, 2012.
  • [2] Jacob R. J. K., Karn K. S.: Eye tracking in human-computer interaction and usability research: Ready to deliver the promises. The Minds Eye: Cognitive and Applied Aspects of Eye Movement Research, Elsevier Science, Oxford, UK, 2003.
  • [3] Graimann B., Allison B. Z., Pfurtscheller G.: BrainComputer Interfaces: a gentle introduction. In: Graimann B., Allison B. Z., Pfurtscheller G (red.) Brain Computer Interfaces Revolutionizing Human Computer Interaction. New York: Springer Publishing, 2010.
  • [4] Bashashati A., Fatourechi M., Ward R. K., Birch G. E.: A survey of signal processing algorithms in brain-computer interfaces based on electrical brain signals. Journal of Neural engineering 4 (2), R35–57, 2007.
  • [5] Rebman C. M., Aiken M. W., Cegielski C. G.:Speech recognition in the human-computer interface. Information & Management 40 (6), 509–519, 2003.
  • [6] Loba C. M.: Enable Viacam (strona projektu). http://eviacam.source-forge.net/index.php (dostęp: 2013-01-19).
  • [7] NaturalPoint: SmartNav (strona produktu). http://www.natural-point.com/smartnav/ (dostęp: 2013-01-16).
  • [8] Santis A., Iacoviello D.: Robust real time eye tracking for computer interface for disabled people. Computer Methods and Programs in Biomedicine 96 (1), 1–11, 2009.
  • [9] Orange Labs Poland, Politechnika Łódzka: b-Link (strona projektu). http://b-link.sourceforge.net/ (dostęp: 2013-01-19).
  • [10] Piccardi M.: Background Subtraction Techniques: A Review. IEEE International Conference on Systems, Man and Cybernetics 4, 3099-3104, 2005
  • [11] Bouwmans T.: Recent Advanced Statistical Background Modeling for Foreground Detection: A Systematic Survey. Recent Patents on Computer Science 4 (3), 147-176, 2011.
  • [12] Bhattacharyya S.: A Brief Survey of Color Image Preprocessing and Segmentation Techniques. Journal of Pattern Recognition Research 1 (2011), 120-129, 2011.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-f1027bb3-48d4-4fef-a014-0c03117f5e92
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.