Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 10

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  sign language
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Accessibility of culture and art to the deaf and hard of hearing is the topic of the doctoral dissertation prepared by the author under the supervision of Professor Aneta Pawlowska in the Doctoral School of Humanities at the University of Lodz' and the “Ja-Ty-My” Social Support Association, entitled “The Problem of Accessibility of Information in Public Institutions and Social Economy Entities in the Field of Culture and Art for People with Hearing Loss and Disabilities in Poland. Recommendations and standards.” This chapter adopts the insider perspective of a deaf researcher to examine the issue of broadly understood accessibility basing on the Deafland [Glusza] exhibition at the Silesian Museum in Katowice. It is a breakthrough show in Poland in terms of the subject matter and the use of available technical solutions for people with special needs.
PL
Dostępność kultury i sztuki dla osób niesłyszących i słabosłyszących jest tematem rozprawy doktorskiej przygotowanej przez autorkę pod kierunkiem prof. dr hab. Anety Pawłowskiej w Szkole Doktorskiej Nauk Humanistycznych Uniwersytetu Łódzkiego oraz Stowarzyszenia Wsparcie Społeczne "Ja-Ty-My" pt. "Problem dostępności informacji w instytucjach publicznych i podmiotach ekonomii społecznej w zakresie kultury i sztuki dla osób z dysfunkcją słuchu i niepełnosprawnością w Polsce. Rekomendacje i standardy." W artykule tym przyjęto wewnętrzną perspektywę niesłyszącego badacza, aby zbadać problem szeroko rozumianej dostępności w oparciu o wystawę Deafland [Głusza] w Muzeum Śląskim w Katowicach. Jest to wystawa przełomowa w Polsce pod względem tematyki i wykorzystania dostępnych rozwiązań technicznych dla osób o specjalnych potrzebach.
EN
A variety of algorithms allows gesture recognition in video sequences. Alleviating the need for interpreters is of interest to hearing impaired people, since it allows a great degree of self-sufficiency in communicating their intent to the non-sign language speakers without the need for interpreters. State-of-the-art in currently used algorithms in this domain is capable of either real-time recognition of sign language in low resolution videos or non-real-time recognition in high-resolution videos. This paper proposes a novel approach to real-time recognition of fingerspelling alphabet letters of American Sign Language (ASL) in ultra-high-resolution (UHD) video sequences. The proposed approach is based on adaptive Laplacian of Gaussian (LoG) filtering with local extrema detection using Features from Accelerated Segment Test (FAST) algorithm classified by a Convolutional Neural Network (CNN). The recognition rate of our algorithm was verified on real-life data.
EN
A solution for the problems of the finger spelling alphabet of gesture language modelling and recognition based on cross-platform technologies is proposed. Modelling and recognition performance can be flexible and adjusted, based on the hardware it operates or based on the availability of an internet connection. The proposed approach tunes the complexity of the 3D hand model based on the CPU type, amount of available memory and internet connection speed. Sign recognition is also performed using cross-platform technologies and the tradeoff in model size and performance can be adjusted. the methods of convolutional neural networks are used as tools for gestures of alphabet recognition. For the gesture recognition experiment, a dataset of 50,000 images was collected, with 50 different hands recorded, with almost 1,000 images per each person. The experimental researches demonstrated the effectiveness of proposed approaches.
PL
Zaproponowano rozwiązanie problemów z alfabetem daktylograficznym w modelowaniu języka gestów i rozpoznawaniu znaków w oparciu o technologie wieloplatformowe. Wydajność modelowania i rozpoznawania może być elastyczna i dostosowana, w zależności od wykorzystywanego sprzętu lub dostępności łącza internetowego. Proponowane podejście dostosowuje złożoność modelu 3D dłoni w zależności od typu procesora, ilości dostępnej pamięci i szybkości połączenia internetowego. Rozpoznawanie znaków odbywa się również z wykorzystaniem technologii międzyplatformowych, a kompromis w zakresie wielkości modelu i wydajności może być dostosowany. Jako narzędzia do rozpoznawania gestów alfabetu wykorzystywane są metody konwolucyjnych sieci neuronowych. Na potrzeby eksperymentu rozpoznawania gestów zebrano zbiór danych obejmujący 50 000 obrazów, przy czym zarejestrowano 50 różnych rąk, a na każdą osobę przypadało prawie 1000 obrazów. Badania eksperymentalne wykazały skuteczność proponowanego podejścia.
EN
The article concerns the problem of the selected sign language letters in the form of images classification. The impact of the image preprocessing methods as adaptive thresholding or edge detection is tested. In addition, the influence of the found shapes filling is checked, as well as centering the hands on the images. The following classification methods were chosen: SVM classifier with linear kernel function, Naive Bayes and Random Forests. The accuracy, F-measure, the AUC, MAE and Kappa coefficient were reported as measures of classification quality.
PL
Artykuł dotyczy klasyfikacji wybranych liter alfabetu migowego w postaci obrazów. Badany jest wpływ na wyniki kilku metod przetwarzania wstępnego obrazów, w tym progowania adaptacyjnego oraz detekcji krawędzi. Dodatkowo sprawdzane jest wypełnianie znalezionych kształtów, a także centrowanie dłoni na obrazach. Jako metody klasyfikacji wybrane zostały: klasyfikator SVM z liniową funkcją jądrową, klasyfikator Naive Bayes oraz Random Forest. Jako miary jakości klasyfikacji raportowane są jakość klasyfikacji, miara F, pole pod krzywą ROC oraz współczynnik Kappa.
EN
In this paper, we performed recognition of isolated sign language gestures - obtained from Australian Sign Language Database (AUSLAN) – using statistics to reduce dimensionality and neural networks to recognize patterns. We designated a set of 70 signal features to represent each gesture as a feature vector instead of a time series, used principal component analysis (PCA) and independent component analysis (ICA) to reduce dimensionality and indicate the features most relevant for gesture detection. To classify the vectors a feedforward neural network was used. The resulting accuracy of detection ranged between 61 to 87%.
EN
Author presents sign language features that can provide the basis of the sign language automatic recognition systems. Using parameters like position, velocity, angular orientation, fingers bending and the conventional or derivative dynamic time warping algorithms classification of 95 signs from the AUSLAN database was performed. Depending on the number of parameters used in classification different accuracy values were obtained (defined as the ratio of correctly recognized gestures to all gestures from test set), with the highest value 87.7% for the case of classification based on all the features and the derivative dynamic time warping method.
PL
W artykule został opisany proces projektowania i realizacji aplikacji, przeznaczonej do analizy, w czasie rzeczywistym, obrazów cyfrowych zawierających symbole języka migowego. Stworzone oprogramowanie zostało napisane w języku C++. Wykorzystuje ono bibliotekę OpenCV w połączeniu z sensorem Microsoft Kinect. Oprogramowanie przetwarza około 15 klatek obrazu w ciągu sekundy i rozpoznaje gesty ze skutecznością 71% . Opracowane oprogramowanie jest odporne w znacznym stopniu na wpływ warunków oświetleniowych.
EN
The paper describes the implementation process of application that recognizes sign language symbols which are presented by a user in real time. The first part of this paper presents software and libraries used by this program. It also contains description of a Microsoft Kinect sensor with explanation of its operation. The second part of this paper is dedicated to KinectSL application. It presents the structure of the application, its algorithm and a study that led to the described method of recognizing sign language gestures. Section 5 deals with main problems that appeared while working on the project such as detecting writs and fingers. Subsection 5.4 contains the detailed explanation of parameters that are passed to a KNN classifier and formulas necessary to compute them. The presented application is multi-platform and can be run on Windows, Linux and MacOS operating systems. This software is able to recognize gestures for two hand at once that allows it to support advanced gestures. The tests carried out showed that KinectSL processed 15 frames per second and its performance of gestures recognizing was above 71 percent. The described system is a good basis to create a program that will be able to fluent translate sign language. It can also be used in industry and entertainment to control processes with user gestures.
PL
W artykule są opisywane prace badawcze i implementacyjne rozwijane głównie w ramach projektu Thetos tłumaczenia tekstów na język migowy. Celem prac jest zbudowanie informatycznego modelu wybranych aspektów języka polskiego. W tych ramach opracowano formalizmy składniowej i semantycznej reprezentacji struktury zdania, gramatyki odpowiadające tym formalizmom, procedury analizy składniowej i semantycznej, a także metodę modelowania tekstu. Szczególny nacisk położono na praktyczne zastosowanie opracowywanych metod przetwarzania języka polskiego w analizatorach Polsyn realizującym model składni oraz Polsem realizującym model semantyki. Na osobną uwagę zasługuje moduł Polin realizujący generowanie wypowiedzi w języku Thel.
EN
The paper is devoted to a description of the research and implementation works developed in the framework of the Thetos project concerned with translation of texts into the sign language. The works are aimed at construction of a computer model of selected aspects of Polish. The elements elaborated in this framework are formalisms for syntactic and semantic representation of the sentence, grammars that correspond to those formalisms, syntactic and semantic analysis procedures. Special stress has been put on practical application of the considered methods for Polish language processing in the Polsyn analyzer implementing the syntax model, and in Polsem implementing the semantic one. A special attention deserves the Polin module responsible for generation of Thel language utterances.
9
Content available remote Automatic recognition of signed Polish expressions
EN
The paper considers recognition of single sentences of the Polish Sign Language. We use a canonical stereo system that observes the signer from a frontal view. Feature vectors take into account information about the hand shape and orientation, as well as 3D position of the hand with respect to the face. Recognition based on human skin detection and hidden Markov models (HMMs) is performed on line. We focus on 35 sentences and a 101 word vocabulary that can be used at the doctor's and at the post office. Details of the solution and results of experiments with regular and parallel HMMs are given.
10
Content available remote An Animated Auslan Tuition System
EN
An Animated Auslan Tuition System uses a computer general signer to provide flexible, visual Australian Sign Language (Auslan) educational tool. Signs are generated and animated by our generig Human Modelling System that is implemented in cross-platform object-oriented C++. The Human Modelling System consists of three modules: the core Human Modelling Module for model construction, manipulation and forward kinetics; the Model Rendering Module for displaying model configuration visually using OpenGL; and the Model Interpolation Module, for providing flexible partial-keyframe interpolation and animation control. These modules form the basis of the Auslan Tuition System, and allow the display of categorised sign phrases, interactive fingerspelling and contextual sign dialogue examples. The user has complete viewing control of sign display and animation, running on modest hardware.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.