PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Modelling the idle movements of human head in three-dimensional virtual environments

Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Generowanie sekwencji ruchu głowy w wirtualnych systemach humanoidalnych
Języki publikacji
EN
Abstrakty
EN
In this paper an approach for head motion synthesis for avatars is presented. The proposed technique utilizes the data extracted in the video sequences analysis process, probability transitions model of movement states and an illustrative 3D head model. The main task is to describe the subtle head movements when a virtual person is waiting for a reaction from the environment. This technique can increase the level of realism while performing human-computer interactions.
PL
Nasilenie zainteresowania intuicyjną komunikacją między ludźmi i maszynami spowodowało wzrost popularności odwzorowania naturalnego ruchu człowieka w wirtualnych systemach humanoidalnych [4]. Powszechnie stosowane metody animacji znajdują zastosowanie w graficznych interfejsach, tym samym wpływając na poprawę interakcji między użytkownikiem a maszyną. Nieodłącznym elementem ruchu twarzy jest ruch głowy [3], warto zwrócić uwagę, że tak jak ekspresje twarzy, dostarcza informacji na temat stanu emocjonalnego człowieka. Mając na uwadze powyższe aspekty, w pracy zaprezentowano sposób automatycznej syntezy ruchu głowy na przykładzie trójwymiarowego, geometrycznego modelu głowy człowieka (rys. 4b). Prezentowana technika wymaga stworzenia bazy sekwencji wideo, z których w procesie analizy pozyskuje się dane wykorzystywane do stworzenia łańcucha Markowa opisującego sekwencje zmian (rys. 2). W celu uzyskania ruchu modelu stworzono prostą konfigurację niedeformowalnych obiektów (rys. 4a), które przypisano do siatki modelu. Ruch jest generowany za pomocą zaproponowanego algorytmu (alg. 2) z wykorzystaniem próbkowania z odrzucaniem [16]. Na rysunku 3 zaprezentowano przykładową animację sekwencji uzyskanych ruchów wirtualnej głowy w trybie oczekiwania. Głównym celem prowadzonych działań było stworzenie opisu ruchu głowy w sytuacji kiedy awatar oczekuje na reakcję z otoczenia. Proponowany w artykule mechanizm może zostać wykorzystany do zwiększenia stopnia realizmu animacji w systemach HCI.
Wydawca
Rocznik
Strony
1121--1123
Opis fizyczny
Bibliogr. 16 poz., rys., wzory
Twórcy
autor
Bibliografia
  • [1] Busso C., Deng Z., Neumann U. and Narayanan S.: Rigid Head Motion in Expressive Speech Animation: Analysis and Synthesis. Audio, Speech, and Language Processing, IEEE Transactions on, Vol. 15, No. 3, pp. 1075-1086, 2007.
  • [2] Munhall K. G., Jones J. A., Callan D. E., Kuratate T. and Vatikiotis-Bateson E.: Visual Prosody and Speech Intelligibility, Head Movement Improves Auditory Speech Perception. Psychological Science, Vol. 15, No. 2, pp. 133-137, 2004.
  • [3] Graf H., Cosatto E., Strom V., Huang F.: Visual Prosody: Facial Movements Accompanying Speech. 5th IEEE Int. Conf. on Automatic Face and Gesture Recognition, pp. 396-401, 2002.
  • [4] Colmenarez A. J., Xiong Z. and Huang T. S.: Facial Analysis from Continuous Video with Applications to Human-Computer Interface. Kluwer Academic Publishers, 2004.
  • [5] Ahn H. S. et. al: Emotional Head Robot with Behavior Decision Model and Face Recognition. ICCAS, pp. 2719-2724, 2007.
  • [6] Wiratanaya A. et. al: iMime: an Interactive Character Animation System for Use in Dementia Care. In Proc. of the 12th International Conference on Intelligent User Interface, pp. 262-265, 2007.
  • [7] Kuratate T., Matsusaka Y., Pierce B., Cheng G.: “Mask-bot”: A Lifesize Robot Head Using Talking Head Animation for Human-Robot Communication. 11th IEEE-RAS International Conference on Humanoid Robots (Humanoids 2011), pp. 99-104, 2011.
  • [8] Weissenfeld A., Urfalioglu O., Liu K. and Ostermann J.: Robust Rigid Head Motion Estimation Based on Differential Evolution. IEEE International Conference on Multimedia and Expo, pp. 225-228, 2006.
  • [9] Liu K. and Ostermann J.: Realistic Talking Head for Human-Car-Entertainment Services. Proceedings of the Informationssysteme fur Mobile Anwendungen (IMA), pp. 108-118, 2008.
  • [10] Weissenfeld A., Liu K., Liu W. and Ostermann J.: Image-based Head Animation System. Kongress Multimediatechnik, pp. 67-72, 2006.
  • [11] Busso C., Deng Z., Neumann U. and Narayanan S.: Natural Head Motion Synthesis Driven by Acoustic Prosodic Features. Computer Animation and Virtual Worlds (CASA), Vol. 16, pp. 3-4, 2005.
  • [12] Deng Z., Busso C., Narayanan S., and Neumann U.: Audio-based Head Motion Synthesis for Avatar-based Telepresence Systems. Proc. of the 2004 ACM SIGMM workshop on Effective telepresence, pp. 24-30, 2004.
  • [13] Chuang E., Bregler C.: Head Emotion. Stanford University Computer Science Technical Report, 2003.
  • [14] Kocoń M., Emirsajłow Z.: Face Emotional States Mapping Based on the Rigid Bone Model. Journal of Applied Computer Science, Vol. 19 No. 2, pp. 47-60, 2011.
  • [15] Kocoń M.: Rigid Bones Grouping Scheme for Facial Expressions Synthesis Utilizing Three-Dimensional Head Model. XII International PhD Workshop (OWD), 2010.
  • [16] Press W et. al: Numerical Recipes. The Art of Scientific Computing. Third Edition. Cambridge University Press, pp. 365-367, 2007.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-BSW4-0125-0022
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.