Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 29

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  interakcja człowiek-komputer
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
PL
Sport elektroniczny (esport) powstał z połączenia wewnętrznej potrzeby rywalizacji ludzi i rozwoju technologicznego w wielu powiązanych dziedzinach. Jednocześnie to zjawisko ma wiele wspólnego ze sportami tradycyjnymi, które od wielu lat formali zowały to, w jaki sposób powinien przebiegać proces szkolenia. Bez technologii, które umożliwiły powstanie gier komputerowych i zjawiska gamingu taki rozwój byłby niemożliwy. W tej pracy po staramy się przedstawić szerszą dziedzinę badań nad esportem i pojęcie inżynierii wirtualności. Jednocześnie wskazujemy możli we przyszłe kierunki rozwoju niektórych aspektów dyscypliny, która jest niezmiernie obszerna. Poszczególne informatyczne aspekty esportu to na przykład zastosowanie technologii wytwarzania gier, wirtualnej rzeczywistości (VR), rzeczywistości rozszerzonej (AR), uczenia maszynowego (ML), sztucznej inteligencji (AI) i inne. Jednak esport to nie tylko informatyka, ale także prawo (prawa intelektualne, ubezpieczenia, bezpieczeństwo i ograniczenia wie kowe), administracja (drużyny, kluby, organizacje, przepisy ligowe i turnieje), biologia (medycyna, psychologia, uzależnienia, szkolenia i edukacja). Ostatecznie opisaliśmy także pewne stereotypy zwią zane z esportem i grami komputerowymi mając na celu wskazanie niepokojących aspektów rozwoju tej dyscypliny. Ten artykuł ma na celu przedstawienie zagadnienia badawcze rozwijane w kraju i w środowisku międzynarodowym.
EN
Electronic sports (esports) emerged from the internal need for competitive play and technological developments in many related fields. At the same time, this phenomenon has a lot in common with traditional sports, which formalized the theory guiding training processes for many years. Technological deve lopment made the emergence of computer games and gaming phenomenon possible. This work will present a broader study of esports and the concept of virtuality engineering. At the same time, we indicate the possible future directions of development of some aspects of the discipline, which is incredibly vast. The various IT aspects of esports include, for example, the use of game production technologies, virtual reality (VR), augmented reality (AR), machine learning (ML), artificial intelligence (AI), and others. However, esports is not only connected to IT but also the law (intellectual rights, insurance, safety, and age restrictions), administration (teams, clubs, organizations, league regulations, and tournaments), and biology (medicine, psychology, addictions, training, and education). Finally, we also described some stereo types associated with esports and computer games to point out disturbing aspects of the development of the sport. This article aims to present research issues being developed domestically and internationally.
EN
Dynamic hand gestures attract great interest and are utilized in different fields. Amongthese, man-machine interaction is an interesting area that makes use of the hand to providea natural way of interaction between them. A dynamic hand gesture recognition system isproposed in this paper, which helps to perform control operations in applications such asmusic players, video games, etc. The key motivation of this research is to provide a simple, touch-free system for effortless and faster human-computer interaction (HCI). As thisproposed model employs dynamic hand gestures, HCI is achieved by building a modelwith a convolutional neural network (CNN) and long short-term memory (LSTM) net-works. CNN helps in extracting important features from the images and LSTM helpsto extract the motion information between the frames. Various models are constructedby differing the LSTM and CNN layers. The proposed system is tested on an existing EgoGesture dataset that has several classes of gestures from which the dynamic gesturesare utilized. This dataset is used as it has more data with a complex background, actionsperformed with varying speeds, lighting conditions, etc. This proposed hand gesture recognition system attained an accuracy of 93%, which is better than other existing systemssubject to certain limitations.
3
PL
Jeszcze do niedawna komputery były urządzeniami przeznaczonymi dla procesów badawczych i militarnych, a dziś stanowią integralną część życia człowieka. Tak szybki rozwój technologii i nowych możliwości sprawia, że nauka, która zajmuje się relacjami człowieka z komputerem (HCI) ma pełno niezbadanych lub niewystarczająco przebadanych obszarów. Niniejszy artykuł na podstawie dostępnych metod badawczych HCI ma pokazać, że obecnie mocno spopularyzowana mysz komputerowa, która jest narzędziem umożliwiającym HCI, nie zawsze będzie najlepszym rozwiązaniem dla każdego użytkownika. Zestawienie myszy komputerowej z innymi dostępnymi na rynku kontrolerami i przebadanie ich w specjalnie przygotowanym środowisku testowym przez wybraną grupę badawczą, będzie najlepszym sposobem do rzetelnego stwierdzenia, że użycie myszy komputerowa nie zawsze może okazać się najlepszym wyborem.
EN
Until recently, computers were devices intended for research and military processes, and today they are an integral part of human life. Such a rapid development of technology and new possibilities means that the science that deals with human-computer relations (HCI) has a lot of unexplored or insufficiently studied areas. Based on the available HCI research methods, this article is to show that the currently highly popularized computer mouse, which is a tool that enables HCI, will not always be the best solution for every user. Comparing a computer mouse with other commercially available controllers and testing them in a specially prepared test environment by a selected research group will be the best way to reliably state that the use of a computer mouse may not always be the best choice.
EN
This paper focuses on intelligent assistant for power wheelchair (PW) usage in home conditions. Especially in the context of PW intelligent assistant as a consumer product. The main problematic aspects and challenges of smart PW in real application are noted. The approach to formation of system requirements and their classification is offered. The research results proposed and implemented in the ongoing Mobilis project for smart PW. Further prospects of research and development are noted. Also, it is stated that the implementation of smart PW technology opens possibilities to effective integration with new control methods (including brain-computer interfaces).
PL
Niniejszy artykuł koncentruje się na omówieniu problemów i wyzwań dotyczących nowego produktu, jakim jest Smart Power Wheelchair (SPW), czyli inteligentny asystent używany w elektrycznych wózkach inwalidzkich w warunkach domowych. Zwrócono szczególnie uwagę na ukazanie SPW jako nowego produktu konsumenckiego na rynku dóbr. Przedstawione zostały główne problematyczne aspekty i wyzwania dla SPW, które mogą pojawić się w warunkach rzeczywistych. Artykuł zawiera również propozycje dotyczące tworzenia wymagań systemowych oraz ich klasyfikacji. W kolejnej części artykułu przedstawiono wyniki badań, zrealizowanych w ramach projektu Mobilis, dzięki którym wdrożono szereg zmian w produkcie. Ponadto autorzy zapewniają o planowanych dalszych badaniach nad rozwojem produktu. Należy zwrócić uwagę, że wprowadzenie technologii SPW otwiera możliwości efektywnej integracji z nowymi metodami komunikacji (w tym z interfejsami mózg-komputer, z ang. brain-computer interfaces – BCI), z których szczególną korzyść będą miały osoby z niepełnosprawnością ruchową.
EN
Performance is the key usability attribute. Application performance is affected by its constituent components such as scripts, image files, and libraries. The objective of the paper is to analyse the impact of source code decompression on the performance of a map application. It focuses on two research questions. RQ1: what is the effect of source code decompression through unminification on the map application performance; and RQ2: does an application with a decompressed source code exhibit the primary (initial) performance? A prototype map application was developed to tackle the questions. Three application variants were prepared: 1) basic, 2) minified (compressed), and 3) decompressed (unminified source code). All three variants had their performance tested. The results were juxtaposed. New notions were introduced: primary performance, secondary performance, and code recycling. It was demonstrated that the secondary performance was a compromise between the primary performance and code clarity (readability).
EN
This study focuses on the development of an interface for gesture control and Boolean operation of 3D objects in 3D computer-aided design (CAD). Although mouse and keyboard have been mainly used as computer input devices, novel computer interfaces are becoming increasingly popular with rapid development of computer technologies. Among several computer interfaces, the gesture interface is well-known as an system operable through the natural human behavior. However, the application to 3D CAD has been scarcely studied so far. From the backgrounds, a simple gesture interface was developed to operate a 3D object in 3D CAD. Leap Motion Controller (LMC) was used as a motion sensor device. A dialog-based graphical user interface (GUI) was also created for the parameter setting. As a result, several operational functions could be successfully executed through various hand-finger motions. Moreover, the system enabled us to experience an intuitive interaction with 3D CAD. Then, the several demonstrations were performed to identify the recognition characteristics of the gesture interface. The differences in the recognition rate were revealed as the results. Especially, it confirmed that a combination of static and dynamic gestures could help to enhance the recognition rate in the gesture interface using LMC. In accordance with the findings, the functions for Boolean operation were also implemented for the manipulation of a 3D object, such as extrusion and hole making.
PL
Na określenie „urządzenia sterujące” składają się urządzenia wskazujące a także inne urządzenia do sterowania komputerem. Głównym celem pracy jest próba określenia dalszego rozwoju urządzeń sterujących komputerami na podstawie uzyskanego w pracy obrazu sposobów interakcji człowieka z komputerem oraz umożliwić odpowiedź na pytania: w jaką stronę zmierza i w jaką stronę powinien zmierzać dalszy rozwój technik sterowania. W pierwszej części pracy autorzy skupili się na opracowaniu bazy wiedzy istniejących rozwiązań urządzeń sterujących oraz badaniu rozpoznawalności urządzeń sterujących.
EN
Term "control device" covers pointing devices and other devices designet to control the computer. This article aims at description of the directions for further development of the computer control devices, mainly based on researched picture of ways of human-comuter interaction. We discuss direction of the further development and its similrity to needed ways od the further development of computr control devices. Firs part of the article focuses on gathering data base concerning existing computer control devices and its recognition among users.
PL
Na określenie „urządzenia sterujące” składają się urządzenia wskazujące a także inne urządzenia do sterowania komputerem. Głównym celem pracy jest próba określenia dalszego rozwoju urządzeń sterujących komputerami na podstawie uzyskanego w pracy obrazu sposobów interakcji człowieka z komputerem oraz umożliwić odpowiedź na pytania: w jaką stronę zmierza i w jaką stronę powinien zmierzać dalszy rozwój technik sterowania. W drugiej części badania autorzy skupili się na badaniu użyteczności wybranych urządzeń sterujących.
EN
Term "control device" covers pointing devices and other devices designet to control the computer. This article aims at description of the directions for further development of the computer control devices, mainly based on researched picture of ways of human-comuter interaction. We discuss direction of the further development and its similrity to needed ways od the further development of computr control devices. Firs part of the article focuses on gathering data base concerning existing computer control devices and its recognition among users.
EN
This analytical position paper aims to open discussion on the future naturalized technology of reading. Our analysis contributes to the discussion that scholars in human-computer interaction should borrow from other disciplines. We begin with seven-floor technology levels pyramid, which ends with naturalized technology. We look for the place of paper and digital book in this pyramid, currently somewhere between invisible and vital technologies. We discuss scenarios for the book, using current theories of reading from both philosophical and neuropsychological viewpoints. Finally, we show inspiring quantitative and qualitative data gathered during a "total research'' into the literary culture. They illustrate the ongoing change in the reading ecosystem.
EN
In this paper we present the concept and our implementation of a suite of tools supporting the annotation of sequential data. These tools are useful in experiments related to multimedia data sequences. We show the two exemplary usage scenarios of these tools in the process of building the gesture recognition system.
PL
W artykule przedstawiamy koncepcję i naszą implementację zestawu narzędzi wspomagających adnotowanie danych sekwencyjnych. Opracowane narzędzia są użyteczne w eksperymentach związanych z sekwencjami danych multimedialnych. Przedstawiono dwa przykładowe scenariusze użycia tych narzędzi w procesie budowy systemu rozpoznawania gestów wykonywanych dłonią.
EN
In the paper authors are introducing the concept of usage of physical orientation of a mobile device, calculated using built-in environmental sensors like accelerometer, gyroscope and magnetometer for detection of tilting gesture. This gesture is used as an acceptance factor for the two next probable word solutions suggested to the user during text input. By performing the device tilt, the first or second word is being automatically put into the desired text field and new prediction is performed. The text predictions are calculated and stored directly on the device to maintain privacy protection. The founding concept of the software is being presented, as well as initial considerations and further plans. This solution is recommended especially to smartphone manufacturers like Microsoft, Samsung and Apple to deploy in their latest models.
PL
W artykule zaprezentowano koncepcję wykorzystania fizycznej orientacji urządzenia mobilnego, wyliczanej z wykorzystaniem wbudowanych czujników takich jak akcelerometr, żyroskop oraz kompas cyfrowy w celu wykrywania gestów wychylenia urządzenia. Taki gest wykorzystywany jest jako metoda akceptacji jednego z dwóch następnych prawdopodobnych słów podczas wprowadzania tekstu. Poprzez wykonanie gestu proponowane słowo jest automatycznie akceptowane i użytkownikowi prezentowana jest kolejna predykcja. Prawdopodobieństwa są wyliczane i przechowywane bezpośrednio na urządzeniu, w celu zapewnienia prywatności użytkownika. Podstawowa koncepcja oprogramowania jest zaprezentowana w artykule, jak również wstępne założenia i plany na przyszłość. Rozwiązanie jest szczególnie rekomendowane dla producentów smartfonów, jak firmy Microsoft, Samsung czy Apple, do wdrożenia w najnowszych modelach smartfonów.
PL
Dynamiczny rozwój sieci społecznościowych sprawił, że Internet stał się najpopularniejszym medium komunikacyjnym. Zdecydowana większość komunikatów wymieniana jest w postaci widomości tekstowych, które niejednokrotnie odzwierciedlają stan emocjonalny autora. Identyfikacja emocji w tekstach znajduje szerokie zastosowanie w handlu elektronicznym, czy telemedycynie, stając się jednocześnie ważnym elementem w komunikacji. człowiek-komputer. W niniejszym artykule zaprezentowano metodę rozpoznawania emocji w tekstach polskojęzycznych opartą o algorytm detekcji słów kluczowych i lematyzację. Uzyskano dokładność rzędu 60%. Opracowano również pierwszą polskojęzyczną bazę słów kluczowych wyrażających emocje.
EN
Dynamic development of social networks caused that the Internet has become the most popular communication medium. A vast majority of the messages are exchanged in text format and very often reflect authors’ emotional states. Detection of the emotions in text is widely used in e-commerce or telemedicine becoming the milestone in the field of human-computer interaction. The paper presents a method of emotion recognition in Polish-language texts based on the keywords detection algorithm with lemmatization. The obtained accuracy is about 60%. The first Polish-language database of keywords expressing emotions has been also developed.
EN
Real-time mimicking of human facial movement on a 3D head model is a challenge which has attracted attention of many researchers. In this research work we propose a new method for enhancing the capturing of the shape of lips. We present an automatic lip movement tracking method which employs a cosine function to interpolate between extracted lip features in order to make the detection more accurate. In order to test the proposed method, mimicking lip movements of a speaker on a 3D head model is studied. Microsoft Kinect II is used in order to capture videos and both RGB and depth information are used to locate the mouth of a speaker followed by fitting a cosine function in order to track the changes of the features extracted from the lips.
EN
Nowadays we see an increase of interest in immersive technologies connected with new modes of communication. With novel devices possibilities open for research in the field of Human-Computer Interfaces (HCI) and Virtual Reality (VR). This project is focused on the creation of interactive virtual reality scenery and on the verification of usefulness of different interfaces in such contexts. We designed a virtual urban space that is accessible to users through VR goggles: Oculus Rift paired with Leap Motion. We prepared an experiment to test how well users can interact in proposed virtual environment through this setup. Results show that in simple tasks users can quickly learn on their own how to use given interface without tutoring.
PL
Dynamiczny rozwój technologii i aplikacji internetowych, takich jak: Google Maps, Big Maps, Open Street Maps oraz łatwy dostęp do szerokopasmowego Internetu spowodowały, iż znaczna część społeczeństwa zaczęła wykorzystywać aplikacje mapowe w codziennym życiu. Równocześnie, coraz więcej usług świadczonych przez podmioty komercyjne oraz jednostki administracji publicznej wykorzystują rozwiązania oparte o interaktywne mapy udostępnione przez portale internetowe (geoportale). Oznacza to, że funkcje niegdyś dostępne tylko dla specjalistów z dziedziny Systemów Informacji Geograficznej (ang. geographic information system, GIS) zostały udostępnione praktycznie każdemu użytkownikowi komputerów i urządzeń mobilnych. Koncentrując się na różnorodności posiadanych umiejętności użytkowników Internetu autorzy zaprojektowali geoportal wspierający partycypację (ang. public participation geographic information system, PPGIS) w procesie planowania przestrzennego w oparciu o filozofię projektowania zorientowanego na użytkownika (ang. user centred design, UCD). W trakcie wytwarzania oprogramowania autorzy zastosowali metodyki zwinnego programowania (Agile Manifesto), które dzięki iteracyjnemu podejściu w szybki sposób pozwoliły na wprowadzenia zmian wynikających z potrzeb użytkowników. W wyniku 4 iteracji z wykorzystaniem metod badania interakcji pomiędzy człowiekiem a komputerem (ang. human computer iteraction, HCI) powstał geoportal z funkcjami pozwalającymi spełnić zapotrzebowanie potencjalnych użytkowników w kontekście prowadzenia dyskusji z wykorzystaniem interaktywnych map. Badania, w ramach których powstał geoportal, zostały sfinansowane ze środków Narodowego Centrum Nauki, numer grantu 2012/05/B/HS4/03850.
EN
A dynamic development of technologies and applications such as Google Maps, Big Maps, Open Street Maps as well as an easy access to broadband Internet have led to the proliferation of map applications and their wide-spread use. Concurrently, a growing number of services provided by commercial entities and public administration use solutions based on interactive maps available through geoportals. This means that capabilities once available only to Geographic Information Systems (GIS) specialists have become available to virtually every computer or mobile device user. Taking into account the diversity of Internet user skills we designed a geoportal enabling public participation in the land use development planning process, based on the methodology of user-centred design (UCD). In the development of the software we followed Agile set of principles (Agile Manifesto) which, thanks to an interactive approach, made it possible to quickly adjust the software functionalities in accordance with the user’s emerging needs. As a result of four usability tests, which have been conducted in accordance with the human-computer interaction research methods, a new, user-friendly geoportal was developed. The system provides functionalities that meet the needs of potential users in the context of online discussions with the use of interactive maps. The geoportal research reported herein was supported by a research project funded by the National Science Centre 2012/05/B/HS4/03850.
EN
There are plenty of sublime devices, including input devices, for all kinds of specialists working with computers available on the market. Furthermore, the more specific solutions are needed, the more expensive and complicated they are. At the time when many people prefer to try as many things as possible before selecting the specific learning paths, both high price and high entry threshold, can appear as blockers. In the paper, there are selected some hardware and software solutions for facilitating the work of the professionals , who expect more analog-like interfaces and more natural ways to control computers presented. Additionally, the authors describe original software and hardware solution that allows the use of wide range MIDI devices as custom input devices. The concept of the software made is being presented, as well as some results of initial interaction of different kind of professionals and the proposed solution software and hardware.
PL
Dostępne jest na rynku wiele urządzeń, w tym urządzeń wejściowych, dla różnych kategorii wymagających użytkowników komputerów. Dodatkowo, im bardziej skomplikowane rozwiązania są potrzebne, tym bardziej są one skomplikowane i kosztowne. Wysoka cena i wysoki próg wejścia utrudnia możliwość znalezienia urządzenia dostosowanego do konkretnych, specyficznych potrzeb użytkownika. W artykule zaprezentowano szereg wybranych rozwiązań sprzętowych i programowych pozwalających na wypełnienie luki w urządzeniach wejścia dla specjalistów oczekujących interfejsów w stylu analogowym oraz bardziej naturalnych sposób na interakcję z oprogramowaniem. Autorzy demonstrują także budowane własne oprogramowanie pozwalające na wykorzystanie szeroko dostępnych urządzeń MIDI jako urządzeń wejścia. Ogólna koncepcja proponowanego oprogramowania jest zaprezentowana, jak również wstępne rezultaty badań odczucia użytkowników korzystających z proponowanego rozwiązania.
EN
This article describes experiments which were conducted with two groups of people: healthy and with cerebral palsy. The purpose of the experiments was to verify two hypothesis: 1) that people with cerebral palsy can interact with computer using their natural gestures, 2) that games for tablets can be a research tool in experiments with young disabled people. Two games, which require the user to make simple gestures to accomplish given tasks, were designed and implemented on a tablet device with a built-in camera. Because of the camera limitations, the tracking process employs blue markers. By moving hand with a blue marker it was possible to perform navigation tasks in both games. In the first game the user had to gather, in 30 seconds, as many objects as possible. The objects were placed on the screen in a grid pattern. In the second game the user had to catch one object 20 times. The position of the object changed after each catch. Results obtained by healthy people were considered as a reference. However there are significant differences between measured parameters in both groups, all persons - healthy and with cerebral palsy - were able to accomplish the tasks by using simple gestures. Games for tablets turned out to be a very attractive research tool from the perspective of young, disabled users. They participated in measurement sessions much more willingly than in experiments without games.
EN
Eye-gaze tracking is an aspect of human-computer interaction still growing in popularity,. Tracking human gaze point can help control user interfaces and may help evaluate graphical user interfaces. At the same time professional eye-trackers are very expensive and thus unavailable for most of user interface researchers and small companies. The paper presents very effective, low cost, computer vision based, interactive eye-gaze tracking method. On contrary to other authors results the method achieves very high precision (about 1.5 deg horizontally and 2.5 deg vertically) at 20 fps performance, exploiting a simple HD web camera with reasonable environment restrictions. The paper describes the algorithms used in the eye-gaze tracking method and results of experimental tests, both static absolute point of interest estimation, and dynamic functional gaze controlled cursor steering.
EN
This paper describes a human-computer interface based on hand gesture recognition, intended for analysis of 3D medical data. The gestures are designed to minimize the required muscle tension when using the system. Gesture recognition is based on a 3D sensor. Depth maps are acquired by a time-of-flight camera, designed specifically for hand gestures recognition. The depth images are denoised and segmented to right and left hand. The contours of the hands are found and a modified Shape Context descriptor is utilized for each hand, providing a set of features, which are employed to train and test various classifiers. Naive Bayes, Random Forest and Support Vector Machine (SVM) classifiers are utilized, with search of optimal parameters using cross-validation. The best accuracy (95%) is achieved with the Support Vector Machine classifier. The gestures are mapped to various controls of a 3D medical visualization module. Two visualization methods are employed - isosurface and cut-planes. The left hand is assigned to switching between different control modes and the right hand gestures are corresponding to controlling various properties in each mode. The system is convenient to use and runs in real-time on a typical PC machine.
20
Content available Chatbots for customer service on hotels’ websites
EN
In this article we present an analysis of implementations of a chatbot - a program which simulates an intelligent conversation with webpage visitors, dedicated to hotels and guesthouses (hotel chatbot, in short: HC). We obtained unique data from five various webpages exhibiting various configurations, containing a total of 17413 user statements in 4165 conversations. HC informative function was confirmed for more than 56% of the conversations. Moreover, 63% of users prefer to interact with HC if it suggests at least one clickable option to choose as an alternative to typing. The results indicate that the implementation of speech synthesis increases the percentage of users who decide to start a conversation with the HC and it may have a positive impact on the percentage of users that book rooms online.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.