Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 12

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  język migowy
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Using deep learning to recognize the sign alphabet
EN
This article describes a vision system that uses deep learning to recognize 24 static signs of the American Sign Alphabet in real time. As part of the project, images of signs from four publicly available databases were used as a training set. A DenseNet was implemented for image recognition. For testing, images were acquired with the use of a web camera. The accuracy of sign recognition in images is more than 80%. The real-time version of the system was implemented.
PL
Artykuł zawiera opis systemu wizyjnego wykorzystującego uczenie głębokie do rozpoznawania, w czasie rzeczywistym 24 statycznych znaków Amerykańskiego Alfabetu Migowego. W ramach realizacji projektu, w charakterze zbioru uczącego, wykorzystano obrazy znaków pochodzące z czterech ogólnodostępnych baz danych. Zastosowano sieć DenseNet do rozpoznawania obrazów. Do testów stworzono własne obrazy z wykorzystaniem kamery internetowej. Skuteczność rozpoznawania znaków migowych z wykorzystaniem obrazów przekroczyła 80%. Zaimplementowano wersję systemu pracującą w czasie rzeczywistym.
EN
Accessibility of culture and art to the deaf and hard of hearing is the topic of the doctoral dissertation prepared by the author under the supervision of Professor Aneta Pawlowska in the Doctoral School of Humanities at the University of Lodz' and the “Ja-Ty-My” Social Support Association, entitled “The Problem of Accessibility of Information in Public Institutions and Social Economy Entities in the Field of Culture and Art for People with Hearing Loss and Disabilities in Poland. Recommendations and standards.” This chapter adopts the insider perspective of a deaf researcher to examine the issue of broadly understood accessibility basing on the Deafland [Glusza] exhibition at the Silesian Museum in Katowice. It is a breakthrough show in Poland in terms of the subject matter and the use of available technical solutions for people with special needs.
PL
Dostępność kultury i sztuki dla osób niesłyszących i słabosłyszących jest tematem rozprawy doktorskiej przygotowanej przez autorkę pod kierunkiem prof. dr hab. Anety Pawłowskiej w Szkole Doktorskiej Nauk Humanistycznych Uniwersytetu Łódzkiego oraz Stowarzyszenia Wsparcie Społeczne "Ja-Ty-My" pt. "Problem dostępności informacji w instytucjach publicznych i podmiotach ekonomii społecznej w zakresie kultury i sztuki dla osób z dysfunkcją słuchu i niepełnosprawnością w Polsce. Rekomendacje i standardy." W artykule tym przyjęto wewnętrzną perspektywę niesłyszącego badacza, aby zbadać problem szeroko rozumianej dostępności w oparciu o wystawę Deafland [Głusza] w Muzeum Śląskim w Katowicach. Jest to wystawa przełomowa w Polsce pod względem tematyki i wykorzystania dostępnych rozwiązań technicznych dla osób o specjalnych potrzebach.
EN
A solution for the problems of the finger spelling alphabet of gesture language modelling and recognition based on cross-platform technologies is proposed. Modelling and recognition performance can be flexible and adjusted, based on the hardware it operates or based on the availability of an internet connection. The proposed approach tunes the complexity of the 3D hand model based on the CPU type, amount of available memory and internet connection speed. Sign recognition is also performed using cross-platform technologies and the tradeoff in model size and performance can be adjusted. the methods of convolutional neural networks are used as tools for gestures of alphabet recognition. For the gesture recognition experiment, a dataset of 50,000 images was collected, with 50 different hands recorded, with almost 1,000 images per each person. The experimental researches demonstrated the effectiveness of proposed approaches.
PL
Zaproponowano rozwiązanie problemów z alfabetem daktylograficznym w modelowaniu języka gestów i rozpoznawaniu znaków w oparciu o technologie wieloplatformowe. Wydajność modelowania i rozpoznawania może być elastyczna i dostosowana, w zależności od wykorzystywanego sprzętu lub dostępności łącza internetowego. Proponowane podejście dostosowuje złożoność modelu 3D dłoni w zależności od typu procesora, ilości dostępnej pamięci i szybkości połączenia internetowego. Rozpoznawanie znaków odbywa się również z wykorzystaniem technologii międzyplatformowych, a kompromis w zakresie wielkości modelu i wydajności może być dostosowany. Jako narzędzia do rozpoznawania gestów alfabetu wykorzystywane są metody konwolucyjnych sieci neuronowych. Na potrzeby eksperymentu rozpoznawania gestów zebrano zbiór danych obejmujący 50 000 obrazów, przy czym zarejestrowano 50 różnych rąk, a na każdą osobę przypadało prawie 1000 obrazów. Badania eksperymentalne wykazały skuteczność proponowanego podejścia.
4
Content available remote Migowy w mig
PL
Każdy szanujący się optyk czy optometrysta zdaje sobie sprawę z tego, jak ważne jest stałe rozszerzanie swoich kompetencji i bycie konkurencyjnym. Żeby być liderem na rynku, trzeba wiedzieć, jak zyskać, a tym bardziej nie stracić klienta. Osoba niedosłysząca, głucha lub głuchoniema w większości przypadków pojawia się w naszym salonie z tzw. „tłumaczem” (ze słyszącym członkiem rodziny). Co jednak zrobić, gdy ta osoba jest samotna i w najbliższym otoczeniu nie ma osoby, która mogłaby jej pomóc?
EN
In this paper, we performed recognition of isolated sign language gestures - obtained from Australian Sign Language Database (AUSLAN) – using statistics to reduce dimensionality and neural networks to recognize patterns. We designated a set of 70 signal features to represent each gesture as a feature vector instead of a time series, used principal component analysis (PCA) and independent component analysis (ICA) to reduce dimensionality and indicate the features most relevant for gesture detection. To classify the vectors a feedforward neural network was used. The resulting accuracy of detection ranged between 61 to 87%.
EN
Author presents sign language features that can provide the basis of the sign language automatic recognition systems. Using parameters like position, velocity, angular orientation, fingers bending and the conventional or derivative dynamic time warping algorithms classification of 95 signs from the AUSLAN database was performed. Depending on the number of parameters used in classification different accuracy values were obtained (defined as the ratio of correctly recognized gestures to all gestures from test set), with the highest value 87.7% for the case of classification based on all the features and the derivative dynamic time warping method.
PL
W artykule został opisany proces projektowania i realizacji aplikacji, przeznaczonej do analizy, w czasie rzeczywistym, obrazów cyfrowych zawierających symbole języka migowego. Stworzone oprogramowanie zostało napisane w języku C++. Wykorzystuje ono bibliotekę OpenCV w połączeniu z sensorem Microsoft Kinect. Oprogramowanie przetwarza około 15 klatek obrazu w ciągu sekundy i rozpoznaje gesty ze skutecznością 71% . Opracowane oprogramowanie jest odporne w znacznym stopniu na wpływ warunków oświetleniowych.
EN
The paper describes the implementation process of application that recognizes sign language symbols which are presented by a user in real time. The first part of this paper presents software and libraries used by this program. It also contains description of a Microsoft Kinect sensor with explanation of its operation. The second part of this paper is dedicated to KinectSL application. It presents the structure of the application, its algorithm and a study that led to the described method of recognizing sign language gestures. Section 5 deals with main problems that appeared while working on the project such as detecting writs and fingers. Subsection 5.4 contains the detailed explanation of parameters that are passed to a KNN classifier and formulas necessary to compute them. The presented application is multi-platform and can be run on Windows, Linux and MacOS operating systems. This software is able to recognize gestures for two hand at once that allows it to support advanced gestures. The tests carried out showed that KinectSL processed 15 frames per second and its performance of gestures recognizing was above 71 percent. The described system is a good basis to create a program that will be able to fluent translate sign language. It can also be used in industry and entertainment to control processes with user gestures.
PL
W artykule są opisywane prace badawcze i implementacyjne rozwijane głównie w ramach projektu Thetos tłumaczenia tekstów na język migowy. Celem prac jest zbudowanie informatycznego modelu wybranych aspektów języka polskiego. W tych ramach opracowano formalizmy składniowej i semantycznej reprezentacji struktury zdania, gramatyki odpowiadające tym formalizmom, procedury analizy składniowej i semantycznej, a także metodę modelowania tekstu. Szczególny nacisk położono na praktyczne zastosowanie opracowywanych metod przetwarzania języka polskiego w analizatorach Polsyn realizującym model składni oraz Polsem realizującym model semantyki. Na osobną uwagę zasługuje moduł Polin realizujący generowanie wypowiedzi w języku Thel.
EN
The paper is devoted to a description of the research and implementation works developed in the framework of the Thetos project concerned with translation of texts into the sign language. The works are aimed at construction of a computer model of selected aspects of Polish. The elements elaborated in this framework are formalisms for syntactic and semantic representation of the sentence, grammars that correspond to those formalisms, syntactic and semantic analysis procedures. Special stress has been put on practical application of the considered methods for Polish language processing in the Polsyn analyzer implementing the syntax model, and in Polsem implementing the semantic one. A special attention deserves the Polin module responsible for generation of Thel language utterances.
PL
W artykule przedstawiono serwer analizy lingwistycznej, z którego korzysta system translacji tekstu pisanego na język migowy - Thetos. Omówiono architekturę systemu oraz podano sposób korzystania z serwera z poziomu innych aplikacji.
EN
Linguistic analysis server is presented in this paper. It is used by Thetos - text into sign language automatic translator for Polish. System architecture is also presented and instructions how to use the server are given.
PL
Przedstawiony został system śledzenia pozycji dłoni na obrazie wideo. Konstrukcja systemu zakłada wykorzystanie informacji z poprzednich okresów analizy oraz redukcję obszaru przetwarzanego obrazu. Oprócz samego obrazu wejściowego moduł decyzyjny wykorzystuje dwa dodatkowe źródła informacji: predykcję następnego położenia dłoni oraz model barwy obiektu. Uwzględnienie wszystkich dostępnych danych pozwala na lokalne przeszukiwanie obrazu.
EN
A system for hand position tracking on video image is shown. The construction of the system assumes use of information from previous analysis stages and reduction of processed image area. Apart from input image, the decision module utilizes two additional information sources: prediction of the next hand position and a hand color model. Taking into account all available data allows for local image searching.
PL
Artykuł przedstawia koncepcją jednego z elementów systemu wizualizacji gestogramów, modułu animacji. Omówione zostały założenia, problemy występujące przy realizacji modułu działającego w czasie rzeczywistym oraz przedstawiona została realizacja modułu z zastosowaniem bibliotek OpenGL i sprzętowej generacji grafiki.
EN
The article presents a general idea of one of elements needed in a system visualizing gestures of the Polish sign language. Next, presumptions for this module are presented, problems concerning the implementation of a real-time module and a solution using the OpenGL interface and hardware accelerated rendering.
PL
Przedstawiona została klasyfikacja znaków alfabetu palcowego według własności wizualnych. Znaki zostały podzielone na grupy, w których do rozpoznania symbolu koniecznie jest wyznaczenie określonego podzbioru cech Wybór metod analizy obrazu jest zależny od rodzaju cech koniecznych do rozpoznania symbolu. Wskazane zostały metody, które należy zastosować w systemie automatycznego rozpoznawania.
EN
The classification of signs from finger spelling alphabet is shown. The signs were classified by their visual properties and separated into groups. In order to recognize sign from a given group, a particular features must be determined. Selection of image analysis methods depends on kind of features required for recognition Particular methods were mentioned, which should be applied in an automated recognition system.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.