Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  facial action recognition
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W ostatniej dekadzie nastąpił dynamiczny rozwój interfejsów multimodalnych. Zróżnicowanie sposobów interakcji człowieka z komputerem obejmuje m.in. wykorzystanie mimiki twarzy do sterowania. Skuteczna lokalizacja elementów twarzy jest podstawowym wymaganiem dla wizyjnych systemów rozpoznawania mimiki. W artykule przedstawiono problem śledzenia elementów twarzy z wykorzystaniem typowych kamer internetowych dających obraz niskiej jakości. Opisano wpływ zakłóceń oraz akcji wykonywanych przez człowieka na skuteczność śledzenia cech. Zaproponowano dwa kryteria wyboru cech, oparte o analizę zróżnicowania tekstury oraz pomiar poziomu zakłóceń, które zwiększają skuteczność śledzenia.
EN
Multimodal systems have developed rapidly during the past decade. They have diversified to include new modalities including facial gestures. Efficient facial feature localization and tracking is a basic functionality needed for vision-based face gesture recognition system. This paper addresses the problem of tracking facial features using low-quality video cameras. We describe influence of noise and human actions on tracking efficiency. We propose two feature selection criteria, based on texture diversity and measuring noise level, which improve tracking accuracy.
PL
Budowa wizyjnego interfejsu człowiek-komputer, przeznaczonego dla osób niepełnosprawnych ruchowo, stanowi szczególnie duże wyzwanie. W artykule przedstawiono aktualny stan prac nad automatycznym rozpoznawaniem mimiki twarzy na potrzeby takiego interfejsu. Opisane zostały zagadnienia związane z tworzeniem modeli jednostek czynnościowych mimiki twarzy przy użyciu statystycznych modeli kształtu (PDM). Przedstawiono wyniki testów dla bazy zawierającej obrazy różnych osób z wybranymi jednostkami czynnościowymi.
EN
Building vision-based human-computer interface, designed for people with severe physical disabilities, is a big challenge. We present work in progress on automatic recognition of face expressions for such interface. We describe issues related to creating models of facial action units using the Point Distributed Models (PDM). Experimental results are presented for a database of face images of different peoples with selected action units.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.