Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 37

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  human-computer interaction
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
1
Content available Virtuality engineering in esports
EN
Traditional sports and esports benefit from the development of Information and Communications Technologies (ICT), including gaming, 4D image/video processing, augmented reality (AR), virtual reality (VR), machine learning (ML), artificial intelligence (AI), big data, high-performance computing (HPC), and cloud computing. On the fuzzy border between the areas of physical and modified reality, both types of sports can coexist. The hardware layer of esports includes PC, consoles, smartphones, and peripherals used to interface with computers, including sensors and feedback devices. The IT layer of esports includes algorithms required in the development of games, online platforms, and virtual reality. The esports community includes amateur and professional players, spectators, esports organizers, sponsors, and other stakeholders. Esports and gaming research spans throughout law (intellectual rights, insurance, safety, and age restrictions), administration (teams, clubs, organizations, league regulations, and tournaments) biology (medicine, psychology, addiction, training and education) Olympic and non- Olympic disciplines, ethical issues, game producers, finance, gambling, data acquisition and analysis. Our article aims to presents selected research issues of esports in the ICT virtualization layer.
EN
Dynamic hand gestures attract great interest and are utilized in different fields. Amongthese, man-machine interaction is an interesting area that makes use of the hand to providea natural way of interaction between them. A dynamic hand gesture recognition system isproposed in this paper, which helps to perform control operations in applications such asmusic players, video games, etc. The key motivation of this research is to provide a simple, touch-free system for effortless and faster human-computer interaction (HCI). As thisproposed model employs dynamic hand gestures, HCI is achieved by building a modelwith a convolutional neural network (CNN) and long short-term memory (LSTM) net-works. CNN helps in extracting important features from the images and LSTM helpsto extract the motion information between the frames. Various models are constructedby differing the LSTM and CNN layers. The proposed system is tested on an existing EgoGesture dataset that has several classes of gestures from which the dynamic gesturesare utilized. This dataset is used as it has more data with a complex background, actionsperformed with varying speeds, lighting conditions, etc. This proposed hand gesture recognition system attained an accuracy of 93%, which is better than other existing systemssubject to certain limitations.
EN
This paper focuses on intelligent assistant for power wheelchair (PW) usage in home conditions. Especially in the context of PW intelligent assistant as a consumer product. The main problematic aspects and challenges of smart PW in real application are noted. The approach to formation of system requirements and their classification is offered. The research results proposed and implemented in the ongoing Mobilis project for smart PW. Further prospects of research and development are noted. Also, it is stated that the implementation of smart PW technology opens possibilities to effective integration with new control methods (including brain-computer interfaces).
PL
Niniejszy artykuł koncentruje się na omówieniu problemów i wyzwań dotyczących nowego produktu, jakim jest Smart Power Wheelchair (SPW), czyli inteligentny asystent używany w elektrycznych wózkach inwalidzkich w warunkach domowych. Zwrócono szczególnie uwagę na ukazanie SPW jako nowego produktu konsumenckiego na rynku dóbr. Przedstawione zostały główne problematyczne aspekty i wyzwania dla SPW, które mogą pojawić się w warunkach rzeczywistych. Artykuł zawiera również propozycje dotyczące tworzenia wymagań systemowych oraz ich klasyfikacji. W kolejnej części artykułu przedstawiono wyniki badań, zrealizowanych w ramach projektu Mobilis, dzięki którym wdrożono szereg zmian w produkcie. Ponadto autorzy zapewniają o planowanych dalszych badaniach nad rozwojem produktu. Należy zwrócić uwagę, że wprowadzenie technologii SPW otwiera możliwości efektywnej integracji z nowymi metodami komunikacji (w tym z interfejsami mózg-komputer, z ang. brain-computer interfaces – BCI), z których szczególną korzyść będą miały osoby z niepełnosprawnością ruchową.
EN
Performance is the key usability attribute. Application performance is affected by its constituent components such as scripts, image files, and libraries. The objective of the paper is to analyse the impact of source code decompression on the performance of a map application. It focuses on two research questions. RQ1: what is the effect of source code decompression through unminification on the map application performance; and RQ2: does an application with a decompressed source code exhibit the primary (initial) performance? A prototype map application was developed to tackle the questions. Three application variants were prepared: 1) basic, 2) minified (compressed), and 3) decompressed (unminified source code). All three variants had their performance tested. The results were juxtaposed. New notions were introduced: primary performance, secondary performance, and code recycling. It was demonstrated that the secondary performance was a compromise between the primary performance and code clarity (readability).
EN
This study focuses on the development of an interface for gesture control and Boolean operation of 3D objects in 3D computer-aided design (CAD). Although mouse and keyboard have been mainly used as computer input devices, novel computer interfaces are becoming increasingly popular with rapid development of computer technologies. Among several computer interfaces, the gesture interface is well-known as an system operable through the natural human behavior. However, the application to 3D CAD has been scarcely studied so far. From the backgrounds, a simple gesture interface was developed to operate a 3D object in 3D CAD. Leap Motion Controller (LMC) was used as a motion sensor device. A dialog-based graphical user interface (GUI) was also created for the parameter setting. As a result, several operational functions could be successfully executed through various hand-finger motions. Moreover, the system enabled us to experience an intuitive interaction with 3D CAD. Then, the several demonstrations were performed to identify the recognition characteristics of the gesture interface. The differences in the recognition rate were revealed as the results. Especially, it confirmed that a combination of static and dynamic gestures could help to enhance the recognition rate in the gesture interface using LMC. In accordance with the findings, the functions for Boolean operation were also implemented for the manipulation of a 3D object, such as extrusion and hole making.
PL
Na określenie „urządzenia sterujące” składają się urządzenia wskazujące a także inne urządzenia do sterowania komputerem. Głównym celem pracy jest próba określenia dalszego rozwoju urządzeń sterujących komputerami na podstawie uzyskanego w pracy obrazu sposobów interakcji człowieka z komputerem oraz umożliwić odpowiedź na pytania: w jaką stronę zmierza i w jaką stronę powinien zmierzać dalszy rozwój technik sterowania. W pierwszej części pracy autorzy skupili się na opracowaniu bazy wiedzy istniejących rozwiązań urządzeń sterujących oraz badaniu rozpoznawalności urządzeń sterujących.
EN
Term "control device" covers pointing devices and other devices designet to control the computer. This article aims at description of the directions for further development of the computer control devices, mainly based on researched picture of ways of human-comuter interaction. We discuss direction of the further development and its similrity to needed ways od the further development of computr control devices. Firs part of the article focuses on gathering data base concerning existing computer control devices and its recognition among users.
PL
Na określenie „urządzenia sterujące” składają się urządzenia wskazujące a także inne urządzenia do sterowania komputerem. Głównym celem pracy jest próba określenia dalszego rozwoju urządzeń sterujących komputerami na podstawie uzyskanego w pracy obrazu sposobów interakcji człowieka z komputerem oraz umożliwić odpowiedź na pytania: w jaką stronę zmierza i w jaką stronę powinien zmierzać dalszy rozwój technik sterowania. W drugiej części badania autorzy skupili się na badaniu użyteczności wybranych urządzeń sterujących.
EN
Term "control device" covers pointing devices and other devices designet to control the computer. This article aims at description of the directions for further development of the computer control devices, mainly based on researched picture of ways of human-comuter interaction. We discuss direction of the further development and its similrity to needed ways od the further development of computr control devices. Firs part of the article focuses on gathering data base concerning existing computer control devices and its recognition among users.
EN
This paper describes audio-visual speech recognition system for Polish language and a set of performance tests under various acoustic conditions. We first present the overall structure of AVASR systems with three main areas: audio features extraction, visual features extraction and subsequently, audiovisual speech integration. We present MFCC features for audio stream with standard HMM modeling technique, then we describe appearance and shape based visual features. Subsequently we present two feature integration techniques, feature concatenation and model fusion. We also discuss the results of a set of experiments conducted to select best system setup for Polish, under noisy audio conditions. Experiments are simulating human-computer interaction in computer control case with voice commands in difficult audio environments. With Active Appearance Model (AAM) and multistream Hidden Markov Model (HMM) we can improve system accuracy by reducing Word Error Rate for more than 30%, comparing to audio-only speech recognition, when Signal-to-Noise Ratio goes down to 0dB.
EN
This analytical position paper aims to open discussion on the future naturalized technology of reading. Our analysis contributes to the discussion that scholars in human-computer interaction should borrow from other disciplines. We begin with seven-floor technology levels pyramid, which ends with naturalized technology. We look for the place of paper and digital book in this pyramid, currently somewhere between invisible and vital technologies. We discuss scenarios for the book, using current theories of reading from both philosophical and neuropsychological viewpoints. Finally, we show inspiring quantitative and qualitative data gathered during a "total research'' into the literary culture. They illustrate the ongoing change in the reading ecosystem.
EN
In this paper we present the concept and our implementation of a suite of tools supporting the annotation of sequential data. These tools are useful in experiments related to multimedia data sequences. We show the two exemplary usage scenarios of these tools in the process of building the gesture recognition system.
PL
W artykule przedstawiamy koncepcję i naszą implementację zestawu narzędzi wspomagających adnotowanie danych sekwencyjnych. Opracowane narzędzia są użyteczne w eksperymentach związanych z sekwencjami danych multimedialnych. Przedstawiono dwa przykładowe scenariusze użycia tych narzędzi w procesie budowy systemu rozpoznawania gestów wykonywanych dłonią.
EN
In the paper authors are introducing the concept of usage of physical orientation of a mobile device, calculated using built-in environmental sensors like accelerometer, gyroscope and magnetometer for detection of tilting gesture. This gesture is used as an acceptance factor for the two next probable word solutions suggested to the user during text input. By performing the device tilt, the first or second word is being automatically put into the desired text field and new prediction is performed. The text predictions are calculated and stored directly on the device to maintain privacy protection. The founding concept of the software is being presented, as well as initial considerations and further plans. This solution is recommended especially to smartphone manufacturers like Microsoft, Samsung and Apple to deploy in their latest models.
PL
W artykule zaprezentowano koncepcję wykorzystania fizycznej orientacji urządzenia mobilnego, wyliczanej z wykorzystaniem wbudowanych czujników takich jak akcelerometr, żyroskop oraz kompas cyfrowy w celu wykrywania gestów wychylenia urządzenia. Taki gest wykorzystywany jest jako metoda akceptacji jednego z dwóch następnych prawdopodobnych słów podczas wprowadzania tekstu. Poprzez wykonanie gestu proponowane słowo jest automatycznie akceptowane i użytkownikowi prezentowana jest kolejna predykcja. Prawdopodobieństwa są wyliczane i przechowywane bezpośrednio na urządzeniu, w celu zapewnienia prywatności użytkownika. Podstawowa koncepcja oprogramowania jest zaprezentowana w artykule, jak również wstępne założenia i plany na przyszłość. Rozwiązanie jest szczególnie rekomendowane dla producentów smartfonów, jak firmy Microsoft, Samsung czy Apple, do wdrożenia w najnowszych modelach smartfonów.
PL
Dynamiczny rozwój sieci społecznościowych sprawił, że Internet stał się najpopularniejszym medium komunikacyjnym. Zdecydowana większość komunikatów wymieniana jest w postaci widomości tekstowych, które niejednokrotnie odzwierciedlają stan emocjonalny autora. Identyfikacja emocji w tekstach znajduje szerokie zastosowanie w handlu elektronicznym, czy telemedycynie, stając się jednocześnie ważnym elementem w komunikacji. człowiek-komputer. W niniejszym artykule zaprezentowano metodę rozpoznawania emocji w tekstach polskojęzycznych opartą o algorytm detekcji słów kluczowych i lematyzację. Uzyskano dokładność rzędu 60%. Opracowano również pierwszą polskojęzyczną bazę słów kluczowych wyrażających emocje.
EN
Dynamic development of social networks caused that the Internet has become the most popular communication medium. A vast majority of the messages are exchanged in text format and very often reflect authors’ emotional states. Detection of the emotions in text is widely used in e-commerce or telemedicine becoming the milestone in the field of human-computer interaction. The paper presents a method of emotion recognition in Polish-language texts based on the keywords detection algorithm with lemmatization. The obtained accuracy is about 60%. The first Polish-language database of keywords expressing emotions has been also developed.
EN
Real-time mimicking of human facial movement on a 3D head model is a challenge which has attracted attention of many researchers. In this research work we propose a new method for enhancing the capturing of the shape of lips. We present an automatic lip movement tracking method which employs a cosine function to interpolate between extracted lip features in order to make the detection more accurate. In order to test the proposed method, mimicking lip movements of a speaker on a 3D head model is studied. Microsoft Kinect II is used in order to capture videos and both RGB and depth information are used to locate the mouth of a speaker followed by fitting a cosine function in order to track the changes of the features extracted from the lips.
EN
Nowadays we see an increase of interest in immersive technologies connected with new modes of communication. With novel devices possibilities open for research in the field of Human-Computer Interfaces (HCI) and Virtual Reality (VR). This project is focused on the creation of interactive virtual reality scenery and on the verification of usefulness of different interfaces in such contexts. We designed a virtual urban space that is accessible to users through VR goggles: Oculus Rift paired with Leap Motion. We prepared an experiment to test how well users can interact in proposed virtual environment through this setup. Results show that in simple tasks users can quickly learn on their own how to use given interface without tutoring.
PL
Dynamiczny rozwój technologii i aplikacji internetowych, takich jak: Google Maps, Big Maps, Open Street Maps oraz łatwy dostęp do szerokopasmowego Internetu spowodowały, iż znaczna część społeczeństwa zaczęła wykorzystywać aplikacje mapowe w codziennym życiu. Równocześnie, coraz więcej usług świadczonych przez podmioty komercyjne oraz jednostki administracji publicznej wykorzystują rozwiązania oparte o interaktywne mapy udostępnione przez portale internetowe (geoportale). Oznacza to, że funkcje niegdyś dostępne tylko dla specjalistów z dziedziny Systemów Informacji Geograficznej (ang. geographic information system, GIS) zostały udostępnione praktycznie każdemu użytkownikowi komputerów i urządzeń mobilnych. Koncentrując się na różnorodności posiadanych umiejętności użytkowników Internetu autorzy zaprojektowali geoportal wspierający partycypację (ang. public participation geographic information system, PPGIS) w procesie planowania przestrzennego w oparciu o filozofię projektowania zorientowanego na użytkownika (ang. user centred design, UCD). W trakcie wytwarzania oprogramowania autorzy zastosowali metodyki zwinnego programowania (Agile Manifesto), które dzięki iteracyjnemu podejściu w szybki sposób pozwoliły na wprowadzenia zmian wynikających z potrzeb użytkowników. W wyniku 4 iteracji z wykorzystaniem metod badania interakcji pomiędzy człowiekiem a komputerem (ang. human computer iteraction, HCI) powstał geoportal z funkcjami pozwalającymi spełnić zapotrzebowanie potencjalnych użytkowników w kontekście prowadzenia dyskusji z wykorzystaniem interaktywnych map. Badania, w ramach których powstał geoportal, zostały sfinansowane ze środków Narodowego Centrum Nauki, numer grantu 2012/05/B/HS4/03850.
EN
A dynamic development of technologies and applications such as Google Maps, Big Maps, Open Street Maps as well as an easy access to broadband Internet have led to the proliferation of map applications and their wide-spread use. Concurrently, a growing number of services provided by commercial entities and public administration use solutions based on interactive maps available through geoportals. This means that capabilities once available only to Geographic Information Systems (GIS) specialists have become available to virtually every computer or mobile device user. Taking into account the diversity of Internet user skills we designed a geoportal enabling public participation in the land use development planning process, based on the methodology of user-centred design (UCD). In the development of the software we followed Agile set of principles (Agile Manifesto) which, thanks to an interactive approach, made it possible to quickly adjust the software functionalities in accordance with the user’s emerging needs. As a result of four usability tests, which have been conducted in accordance with the human-computer interaction research methods, a new, user-friendly geoportal was developed. The system provides functionalities that meet the needs of potential users in the context of online discussions with the use of interactive maps. The geoportal research reported herein was supported by a research project funded by the National Science Centre 2012/05/B/HS4/03850.
EN
In this paper, a proposition of touchless typing interface operated by head movements is proposed. It is designed for users with motor impairments unable to operate the standard computer input devices but able to move their heads. The interface has a form of single row alphabetical keyboard operated through left and right directional head movements and up and down head rotary movements. To accelerate the typing the interface is adapting by limiting the set of next characters. The initially typed phrase is dictionary checked for possible complements.
PL
W artykule zaproponowano interfejs bezdotykowego pisania za pomocą ruchów głowy. Jest on przeznaczony dla użytkowników z motorycznymi ograniczeniami, którzy nie są w stanie obsługiwać standardowych urządzeń obsługi komputera, ale mogą poruszać głową. Proponowany interfejs ma formę jednowierszowej klawiatury uporządkowanej alfabetycznie obsługiwanej poprzez kierunkowe ruchy głowy w lewo i prawo oraz ruchy obrotowe w górę i w dół. Celem przyspieszenia pisania interfejs adaptuje się ograniczając zbiór potencjalnych znaków. Wstępnie wpisana fraza jest sprawdzana słownikowo, aby uzyskać możliwe uzupełnienia.
EN
The paper presents the system for support interaction of disabled people using a low-cost computer module. The system is based on the Microsoft Kinect device. Its usability strongly depends on the designed software. The architecture of both software and hardware part of the system is discussed. The tests performed on human volunteers are presented as well. The conducted research confirms the usability of the system, showing its disadvantages and limitations.
EN
There are plenty of sublime devices, including input devices, for all kinds of specialists working with computers available on the market. Furthermore, the more specific solutions are needed, the more expensive and complicated they are. At the time when many people prefer to try as many things as possible before selecting the specific learning paths, both high price and high entry threshold, can appear as blockers. In the paper, there are selected some hardware and software solutions for facilitating the work of the professionals , who expect more analog-like interfaces and more natural ways to control computers presented. Additionally, the authors describe original software and hardware solution that allows the use of wide range MIDI devices as custom input devices. The concept of the software made is being presented, as well as some results of initial interaction of different kind of professionals and the proposed solution software and hardware.
PL
Dostępne jest na rynku wiele urządzeń, w tym urządzeń wejściowych, dla różnych kategorii wymagających użytkowników komputerów. Dodatkowo, im bardziej skomplikowane rozwiązania są potrzebne, tym bardziej są one skomplikowane i kosztowne. Wysoka cena i wysoki próg wejścia utrudnia możliwość znalezienia urządzenia dostosowanego do konkretnych, specyficznych potrzeb użytkownika. W artykule zaprezentowano szereg wybranych rozwiązań sprzętowych i programowych pozwalających na wypełnienie luki w urządzeniach wejścia dla specjalistów oczekujących interfejsów w stylu analogowym oraz bardziej naturalnych sposób na interakcję z oprogramowaniem. Autorzy demonstrują także budowane własne oprogramowanie pozwalające na wykorzystanie szeroko dostępnych urządzeń MIDI jako urządzeń wejścia. Ogólna koncepcja proponowanego oprogramowania jest zaprezentowana, jak również wstępne rezultaty badań odczucia użytkowników korzystających z proponowanego rozwiązania.
EN
Because of an aging society and the relevance of computer-based systems in a variety of fields of our life, personalization of software systems is becoming more important by the day in order to prevent usage errors and create a good user experience. However, personalization typically is a time-consuming and costly process if it is done through manual configuration. Automated adaptation to specific users’ needs is, therefore, a useful way to reduce the efforts necessary. The IAAA project focuses on the analysis of user interaction capabilities and the implementation of automated adaptations based on them. However, the success of these endeavors is strongly reliant on a careful selection of interaction modalities as well as profound knowledge of the target group’s general interaction behavior. Therefore, as a first step in the project, an extensive task-based user observation with thorough involvement of the actual target group was conducted in order to determine input devices and modalities that would in a second step become subject of the first prototypic implementations. This paper discusses the general objectives of the IAAA project, describes the methodology and aims behind the user observation and presents its results.
EN
This paper presents new trends in interface design of medical ultrasound devices and explains the basics of implementing usability engineering in accordance with international standards. Methods for determining the initial requirements, design guidelines, processes of prototyping, verification, and validation of software user interfaces for medical devices are discussed. The article also presents a preliminary plan of a methodology for prototyping touch-based and standard-control interfaces for mobile ultrasonic devices.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.