Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Ograniczanie wyników
Czasopisma help
Lata help
Autorzy help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 34

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  rozpoznawanie emocji
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
PL
Osoby zniepełnosprawnością intelektualną często wykazują deficyty związane zwłaściwym rozumieniem emocji innych osób. W artykule zaprezentowany został przypadek Daniela, młodego mężczyzny zumiarkowanym stopniem niepełnosprawności intelektualnej, u którego deficyty tego rodzaju w znaczący sposób wpływają na funkcjonowanie w sytuacjachspołecznych. Przedstawione zostały informacje na temat osoby badanej uzyskane w wywiadzie z matką oraz na podstawie analizy dokumentacji medycznej i psychologicznej. Zaprezentowano opis treningu związanego z rozpoznawaniem iinterpretacją emocji przeznaczony dla osób zobniżonym poziomem sprawności intelektualnej. Ocena skuteczności podjętych oddziaływań wskazałana pozytywne efekty treningu. Uzyskane w pracy zosobą badaną wyniki dają podstawy by sądzić, że przygotowane zadania mogą być stosowane wpracy z osobami zgłębszą niepełnosprawnością intelektualną przejawiającymi podobne deficyty wzakresie kompetencji emocjonalnych.
EN
Individuals with intellectual disabilities often present difficulties related to the proper understanding of the emotions of others. This article describes a case history of Daniel, ayoung man diagnosed with moderate intellectual disability, who experiences this type of problem in social interactions. Thedescribed case was based on information obtained during an interview with aparent and from medical and psychological evaluations. The emotion recognition training program for individuals with intellectual disabilities was presented. Subsequent evaluation showed positive effects of the training on Daniels’ ability to recognize emotional expressions. The obtained results suggest that the presented training program can be successfully used to enhance the emotional competence of persons with moderate and severe intellectual disabilities.
PL
Nowogrodzka, Agnieszka (2014) Zdolność do rozpoznawania emocji i odczuwania empatii u osób popełniających przestępstwa. „Profilaktyka Społeczna i Resocjalizacja” 23: 7-17. Streszczenie: Sprawne emocjonalne funkcjonowanie jest łączone z właściwym działaniem w obrębie społeczeństwa, a brak umiejętności do doświadczania stanów wewnętrznych innych osób z tendencją do popełniania przestępstw. Przestępczość jest negatywnym społecznym czynnikiem, który znacznie obciąża społeczności wielu krajów. Z tego względu badacze próbują doszukać się różnic w umiejętności doświadczania emocji występujących wgrupie osób zdrowych i mających skłonność do wchodzenia wkonflikty z prawem. W artykule tym są zawarte rezultaty badań skupionych na tym temacie. Być może programy skupiające się na rozwijaniu zdolności do doświadczania emocji pozwolą na obniżenie wskaźników wskazujących na częstotliwość popełniania przestępstw.
EN
Effective emotional functioning tends to be associated with proper social functioning, while the inability to empathize with others is linked to the propensity for crime. Criminality remains a negative social factor, taking a heavy toll on communities in many countries. Thus, researchers make attempts in order to find differences in the ability to experience emotions among healthy individuals and those who reveal the propensity for breaching the law. The paper presents the findings of research efforts devoted to this subject. Ii is assumed that programs aiming at developing the ability to empathize will help reduce delinquency-related rates.
EN
This article presents an approach to emotion recognition based on facial expressions of gamers. With application of certain methods crucial features of an analyzed face like eyebrows’ shape, eyes and mouth width, height were extracted. Afterward a group of artificial intelligence methods was applied to classify a given feature set as one of the following emotions: happiness, sadness, anger and fear. The approach presented in this paper was verified using specialized databases and real-life situations. The obtained results are vastly promising, thus further work on the subject should be continued.
PL
Artykuł prezentuje sposób rozpoznawania emocji na podstawie wyrazu twarzy graczy. Przy zastosowaniu określonych metod wybierano niezbędne cechy analizowanej twarzy: kształt brwi, szerokość i wysokość ust oraz oczu. Następnie zastosowano zestaw narzędzi sztucznej inteligencji do rozpoznania odpowiednich emocji (szczęście, smutek, złość i strach) na podstawie uzyskanych zbiorów cech. Rozwiązanie przedstawione w niniejszej publikacji zostało zweryfikowane za pomocą obrazów zawartych w specjalistycznych bazach danych oraz przedstawiających sytuacje z życia codziennego. Otrzymane wyniki są bardzo obiecujące i zachęcają do kontynuacji prac nad tym zagadnieniem.
PL
Niniejsza praca podejmuje próbę pomiaru cech sygnału mowy skorelownych z jego zawartością emocjonalną (na przykładzie emocji podstawowych). Zaprezentowano korpus mowy zaprojektowany tak, by umożliwić różnicową analizę niezależną od mówcy i treści oraz przeprowadzono testy mające na celu ocenę jego przydatności do automatyzacji wykrywania emocji w mowie. Zaproponowano robocze profile wokalne emocji. Artykuł prezentuje również propozycje aplikacji medycznych opartych na pomiarach emocji w głosie.
EN
The paper presents an approach to creating new measures of emotional content of speech signals. The results of this project constitute the basis or further research in this field. For analysis of differences of the basic emotional states independently of a speaker and semantic content, a corpus of acted emotional speech was designed and recorded. The alternative methods for emotional speech signal acquisition are presented and discussed (Section 2). Preliminary tests were performed to evaluate the corpus applicability to automatic emotion recognition. On the stage of recording labeling, human perceptual tests were applied (using recordings with and without semantic content). The results are presented in the form of the confusion table (Tabs. 1 and 2). The further signal processing: parametrisation and feature extraction techniques (Section 3) allowed extracting a set of features characteristic for each emotion, and led to developing preliminary vocal emotion profiles (sets of acoustic features characteristic for each of basic emotions) - an example is presented in Tab. 3. Using selected feature vectors, the methods for automatic classification (k nearest neighbours and self organizing neural network) were tested. Section 4 contains the conclusions: analysis of variables associated with vocal expression of emotions and challenges in further development. The paper also discusses use of the results of this kind of research for medical applications (Section 5).
EN
In this paper KinectRecorder comprehensive tool is described which provides for convenient and fast acquisition, indexing and storing of RGB-D video streams from Microsoft Kinect sensor. The application is especially useful as a supporting tool for creation of fully indexed databases of facial expressions and emotions that can be further used for learning and testing of emotion recognition algorithms for affect-aware applications. KinectRecorder was successfully exploited for creation of Facial Expression and Emotion Database (FEEDB) significantly reducing the time of the whole project consisting of data acquisition, indexing and validation. FEEDB has already been used as a learning and testing dataset for a few emotion recognition algorithms which proved utility of the database, and the KinectRecorder tool.
PL
W pracy przedstawiono kompleksowe narzędzie, które pozwala na wygodną i szybką akwizycję, indeksowanie i przechowywanie nagrań strumieni RGB-D z czujnika Microsoft Kinect. Aplikacja jest szczególnie przydatna jako narzędzie wspierające tworzenie w pełni zaindeksowanych baz mimiki i emocji, które mogą być następnie wykorzystywane do nauki i testowania algorytmów rozpoznawania emocji użytkownika dla aplikacji je uwzględniających. KinectRecorder został z powodzeniem wykorzystany do utworzenia bazy mimiki i emocji FEEDB, znacznie skracając czas całego procesu, obejmującego akwizycję, indeksowanie i walidację nagrań. Baza FEEDB została już z powodzeniem wykorzystana jako uczący i testujący zbiór danych dla kilku algorytmów rozpoznawania emocji, co wykazało przydatność zarówno jej, jak również narzędzia KinectRecorder.
Logistyka
|
2015
|
tom nr 4
9712--9721, CD3
EN
Emotion recognition system can improve customer service especially in the case of call centers. Knowledge of the emotional state of the speaker would allow the operator to adapt better and generally improve cooperation. Research in emotion recognition focuses primarily on speech analysis. Emotion classification algorithms designed for real-world application must be able to interpret the emotional content of an utterance or dialog beyond various limitation i.e. speaker, context, personality or culture. This paper presents research on emotion recognition system of spontaneous voice stream based on a multimodal classifier. Experiments were carried out basing on natural speech characterized by seven emotional states. The process of multimodal classification was based on Plutchik’s theory of emotion and emotional profiles.
EN
This paper is focused on automatic emotion recognition from static grayscale images. Here, we propose a new approach to this problem, which combines a few other methods. The facial region is divided into small subregions, which are selected for processing based on a face relevance map. From these regions, local directional pattern histograms are extracted and concatenated into a single feature histogram, which is classified into one of seven defined emotional states using support vector machines. In our case, we distinguish: anger, disgust, fear, happiness, neutrality, sadness and surprise. In our experimental study we demonstrate that the expression recognition accuracy for Japanese Female Facial Expression database is one of the best compared with the results reported in the literature.
PL
W artykule tym przedstawiono zagadnienie rozpoznawania emocji na podstawie obrazów w skali szarości. Prezentujemy w nim nowe podejście, stanowiące połączenie kilku istniejących metod. Obszar twarzy jest dzielony na mniejsze regiony, które są wybierane do dalszego przetwarzania, z uwzględnieniem binarnych map istotności. Z każdego regionu ekstrahowany jest histogram lokalnych wzorców binarnych, a następnie histogramy są składane do wektora cech i klasyfikowane za pomocą maszyny wektorów podpierających. W naszym przypadku rozróżniamy takie emocje, jak: gniew, wstręt, strach, szczęście, neutralność, smutek i zaskoczenie. Podczas naszych eksperymentów pokazaliśmy, że nasze podejście umożliwia poprawę skuteczności rozpoznawania emocji dla bazy Japanese Female Facial Expression względem innych istniejących metod.
8
Content available remote Generalized Maximal Margin Discriminant Analysis for Speech Emotion Recognition
75%
EN
A novel speech emotion recognition method based on the generalized maximum margin discriminant analysis (GMMDA) method is proposed in this paper. GMMDA is a multi-class extension of our proposed two-class dimensionality reduction method based on maximum margin discriminant analysis (MMDA), which utilizes the normal direction of optimal hyperplane of linear support vector machine (SVM) as the projection vector for feature extraction. To generate an optimal set of projection vectors from MMDA-based dimensionality reduction method, we impose orthogonal restrictions on the projection vectors and then recursively solve the problem. Moreover, to deal with the multi-class speech emotion recognition problem, we present two recognition schemes based on our proposed dimensionality reduction approach. One is using “one-versus-one" strategy for multi-class classification, and the other one is to compose the projection vectors of each pair of classes to obtain a transformation matrix for the multi-class dimensionality reduction.
PL
W artykule przedstawiono metodę analizy emisji głosu pod kątem rozpoznawania emocji. Rozwiązanie bazuje na analizie dyskryminacyjnej maksymalnego marginesu GMMDA.
9
75%
EN
EEG-based emotion recognition is a challenging and active research area in affective computing. We used three-dimensional (arousal, valence and dominance) model of emotion to recognize the emotions induced by music videos. The participants watched a video (1 min long) while their EEG was recorded. The main objective of the study is to identify the features that can best discriminate the emotions. Power, entropy, fractal dimension, statistical features and wavelet energy are extracted from the EEG signals. The effects of these features are investigated and the best features are identified. The performance of the two feature selection methods, Relief based algorithm and principle component analysis (PCA), is compared. PCA is adopted because of its improved performance and the efficacies of the features are validated using support vector machine, K-nearest neighbors and decision tree classifiers. Our system achieves an overall best classification accuracy of 77.62%, 78.96% and 77.60% for valence, arousal and dominance respectively. Our results demonstrated that time-domain statistical characteristics of EEG signals can efficiently discriminate different emotional states. Also, the use of three-dimensional emotion model is able to classify similar emotions that were not correctly classified by two-dimensional model (e.g. anger and fear). The results of this study can be used to support the development of real-time EEG-based emotion recognition systems.
10
Content available remote Polish emotional speech recognition based on the committee of classifiers
75%
EN
This article presents the novel method for emotion recognition from polish speech. We compared two different databases: spontaneous and acted out speech. For the purpose of this research we gathered a set of audio samples with emotional information, which serve as input database. Multiple Classifier Systems were used for classification, with commonly used speech descriptors and different groups of perceptual coefficients as features extracted from audio samples.
PL
Niniejsza praca dotyczy rozpoznawania stanów emocjonalnych na podstawie głosu. W artykule porównaliśmy mowę spontaniczną z mową odegraną. Na potrzeby zrealizowanych badań zgromadzone zostały emocjonalne nagrania audio, stanowiące kompleksową bazę wejściową. Przedstawiamy nowatorski sposób klasyfikacji emocji wykorzystujący komitety klasyfikujące, stosując do opisu emocji powszechnie używane deskryptory sygnału mowy oraz percepcyjne współczynniki hybrydowe.
11
75%
EN
Emotions play a significant role in product design for end-users. However, how to take emotions into account is not yet completely understood. We argue that this gap is due to a lack of methodological and technological frameworks for effective investigation of the elicitation conditions related to emotions and corresponding emotional responses of the users. Emotion-driven design should encompass a thorough assessment of users' emotional reactions in relation to certain elicitation conditions. By using Virtual Reality (VR) as mean to perform this investigation, we propose a novel methodological framework, referred to as the VR-Based Emotion-Elicitation-and-Recognition loop (VEE-loop), to close this gap.
PL
Artykuł prezentuje zagadnienie związane z rozpoznawaniem stanów emocjonalnych na podstawie analizy sygnału mowy. Na potrzeby badań stworzona została polska baza mowy spontanicznej, zawierająca wypowiedzi kilkudziesięciu osób, w różnym wieku i różnej płci. Na podstawie analizy sygnału mowy stworzono przestrzeń cech. Klasyfikację stanowi multimodalny mechanizm rozpoznawania, oparty na algorytmie kNN. Średnia poprawność: rozpoznawania wynosi 83%.
EN
The article presents the issue of emotion recognition from a speech signal. For this study, a Polish spontaneous database, containing speech from people of different age and gender, was created. Features were determined from the speech signal. The process of recognition was based on multimodal classification, related to kNN algorithm. The average of accuracy performance was up to 83%.
PL
Praca prezentuje koncepcję wykorzystania systemu wizyjnego w zagadnieniu rozpoznawania emocji człowieka na podstawie wyrazu twarzy. Określono zestaw cech, które najlepiej opisują zmiany wyglądu wywołane ekspresjami mimicznymi. W stworzonym systemie wizyjnym zaimplementowano dwie metody lokalizacji twarzy. Pierwsza z nich wykorzystuje klasyfikator Haara, druga bazuje na algorytmie ekstrakcji pikseli o odcieniu skory. Wykrywanie zgrubnych obszarów oczu i ust zostało oparte na analizie obrazu gradientowego. Detekcja dokładnego położenia źrenic jest realizowana metoda dopasowania szablonu. Procedura wydzielająca wargi korzysta z transformacji w przestrzeni kolorów RGB - odwzorowania krzywej chromatycznej. Opisano również sposób znajdowania i parametryzacji brwi. System stworzono w ramach pracy dyplomowej pt. "Wykorzystanie systemu wizyjnego do rozpoznawania emocji człowieka".
EN
The paper presents an idea of using vision system in facial emotions recognition process. Creation of vision system required previous definition of certain set of features, describing changes in facial appearance when expressing various emotions. In the developed vision system, two methods of locating the face are implemented. First method uses Haar-like features algorithm, second one is based on skin-color pixel extraction. Location of rough regions of eyes and mouth uses algorithm based on gradient image analysis. Accurate detection of iris centers is performed by applying a template based method. Lips segmentation algorithm uses transformation based on RGB color space - the chromatic curve map. Paper also describes eye brows extraction method. The described vision system is being improved during research on master's thesis: "Vision system in human emotions recognition".
EN
The subject of the paper is therapy program for children with autism which is applicable for parents who can use it in everyday situations. Therapy is focused on the Theory of Mind Mechanism (ToMM), mainly recognizing others’ mental states, emotions and true or false beliefs. 12 children (8–12 yr olds) with autism was divided into 2 groups: 6 participated in individual sessions (parents repeated sessions activities at home) by 6 months, the next 6 made the control group without treatment. Session plan is described. There is a large effect size in treatment group. The most increased skills were: distinguishing previous from present opinions, taking others’ perspective and emotion recognizing. Statistical analysis and qualitative interpretation confirm therapy effectiveness.
PL
Tematem artykułu jest program terapii dzieci z autyzmem, ze szczególnym uwzględnieniem dziecięcej teorii umysłu. Terapia koncentruje się na mechanizmach teorii umysłu (The Theory of Mind Mechanism; ToMM), która uczy rozpoznawania głównie stanów mentalnych innych osób, emocji oraz odróżniania prawdziwych lub fałszywych przekonań. W badaniu wzięło udział 12 dzieci (w wieku 8–12 lat) z autyzmem. Podzielono je na 2 grupy 6-osobowe: „grupa leczona” uczestniczyła przez 6 miesięcy w sesjach indywidualnych (rodzice powtarzali sesje zajęć w domu), pozostałych 6 dzieci z „grupy kontrolnej” nie było poddawanych leczeniu. W grupie leczonej zaobserwowano wzrost następujących umiejętności: odróżniania opinii, przyjmowania perspektywy i rozpoznawania emocji. Analiza statystyczna i interpretacja jakościowa potwierdzają skuteczność terapii.
EN
The study of customer experience requires the development of methodologies which measure such experience and account for its complexity. One important component of customer experience is emotion, the recognition and measurement of which is still a challenge for researchers. The purpose of this article is to discuss methods and techniques used to recognise and measure emotions in customer experience research. Particular attention is paid to the use of techniques derived from consumer neuroscience, including the dilemmas associated with reaching for automatic analysis of facial expressions. The literature review is indicative of the ongoing discussion on the benefits and limitations of using the automatic analysis of facial expressions technique in measuring customer experience. Despite its limitations, such a technique can be an attractive complement to methods and techniques used to capture the emotional components of customer experience at different stages (before, during, and after purchase).
PL
Badanie doświadczeń klienta wymaga rozwijania metodyki ich pomiaru pozwalającej na uwzględnienie ich złożoności. Jedną z ważnych składowych doświadczeń są emocje, których rozpoznawanie i pomiar stanowi wciąż wyzwanie dla badaczy. Celem artykułu jest dyskusja na temat metod i technik wykorzystywanych do rozpoznawania i pomiaru emocji w badaniach doświadczeń klienta. Szczególną uwagę poświęcono wykorzystaniu technik wywodzących się z neuronauki konsumenckiej, w tym dylematom związanym z sięganiem po automatyczną analizę ekspresji mimicznej. Studia literaturowe pozwoliły na dyskusję dotyczącą korzyści i ograniczeń stosowania automatycznej analizy ekspresji mimicznej w pomiarze doświadczeń klientów. Mimo ograniczeń, mogą one być traktowane jako atrakcyjne uzupełnienie metod i technik pozwalających na uchwycenie emocjonalnych komponentów doświadczenia klienta na różnych etapach (przed zakupem, w jego czasie i po nim).
PL
Artykuł prezentuje próbę analizy zadowolenia mówcy na podstawie sygnału mowy. Na podstawie rzeczywistych rozmów z call center stworzono korpus mowy oraz przeprowadzono wstępne testy, których celem było określenie możliwości automatycznego wykrywania niezadowolenia w głosie. Podczas eksperymentów 1179 nagrań poddano automatycznej klasyfikacji, uzyskując ponad 83% dokładności przy detekcji niezadowolenia niewerbalnego.
EN
The paper presents an approach to speaker’s satisfaction analysis based on speech signal. A corpus of emotional speech from real call center recordings was created. Preliminary tests were performed to estimate possibility of automatic detection of dissatisfaction based on speech analysis. 1179 recordings were classified obtaining 83% accuracy when detecting non-verbal dissatisfaction.
EN
This paper describes a study of emotion recognition based on speech analysis. The introduction to the theory contains a review of emotion inventories used in various studies of emotion recognition as well as the speech corpora applied, methods of speech parametrization, and the most commonly employed classification algorithms. In the current study the EMO-DB speech corpus and three selected classifiers, the k-Nearest Neighbor (k-NN), the Artificial Neural Network (ANN) and Support Vector Machines (SVMs), were used in experiments. SVMs turned out to provide the best classification accuracy of 75.44% in the speaker dependent mode, that is, when speech samples from the same speaker were included in the training corpus. Various speaker dependent and speaker independent configurations were analyzed and compared. Emotion recognition in speaker dependent conditions usually yielded higher accuracy results than a similar but speaker independent configuration. The improvement was especially well observed if the base recognition ratio of a given speaker was low. Happiness and anger, as well as boredom and neutrality, proved to be the pairs of emotions most often confused.
EN
In the domain of affective computing different emotional expressions play an important role. To convey the emotional state of human emotions, facial expressions or visual cues are used as an important and primary cue. The facial expressions convey humans affective state more convincingly than any other cues. With the advancement in the deep learning techniques, the convolutional neural network (CNN) can be used to automatically extract the features from the visual cues; however variable sized and biased datasets are a vital challenge to be dealt with as far as implementation of deep models is concerned. Also, the dataset used for training the model plays a significant role in the retrieved results. In this paper, we have proposed a multi-model hybrid ensemble weighted adaptive approach with decision level fusion for personalized affect recognition based on the visual cues. We have used a CNN and pre-trained ResNet-50 model for the transfer learning. VGGFace model’s weights are used to initialize weights of ResNet50 for fine-tuning the model. The proposed system shows significant improvement in test accuracy in affective state recognition compared to the singleton CNN model developed from scratch or transfer learned model. The proposed methodology is validated on The Karolinska Directed Emotional Faces (KDEF) dataset with 77.85% accuracy. The obtained results are promising compared to the existing state of the art methods.
19
63%
EN
Various automated/semi-automated medical diagnosis systems based on human physiology have been gaining enormous popularity and importance in recent years. Physiological features exhibit several unique characteristics that contribute to reliability, accuracy and robustness of systems. There has also been significant research focusing on detection of conventional positive and negative emotions after presenting laboratory-based stimuli to participants. This paper presents a comprehensive survey on the following facets of mental stress detection systems: physiological data collection, role of machine learning in Emotion Detection systems and Stress Detection systems, various evaluation measures, challenges and applications. An overview of popular feature selection methods is also presented. An important contribution is the exploration of links between biological features of humans with their emotions and mental stress. The numerous research gaps in this field are highlighted which shall pave path for future research.
Logistyka
|
2015
|
tom nr 4
9702--9711, CD3
PL
W artykule przedstawiono wyniki doświadczeń rozpoznawania emocji na podstawie sygnału mowy z wykorzystaniem współczynników percepcyjnych. Badania rozpoczęła analiza współczynników MFCC, następnie pulę tę poszerzono o współczynniki, takie jak BFCC, HFCC, PLP, RPLP oraz RASTA PLP, szeroko stosowane w badaniach nad rozpoznawaniem mowy, natomiast pomijane w rozpoznawaniu emocji. Analizę przeprowadzono dla dwóch różnych korpusów: bazy mowy spontanicznej i odegranej. Przy użyciu klasyfikatora k-NN, wybrano grupę współczynników najlepiej reprezentujących stany emocjonalne.
EN
The following paper presents parameterization of emotional speech using perceptual coefficients as well as a comparison of Mel Frequency Cepstral Coefficients (MFCC), Bark Frequency Cepstral Coefficients (BFCC), Perceptual Linear Prediction Coefficients (PLP) and Revised Perceptual Linear Prediction Coefficients (RPLP). Analysis was performed on two different Polish databases: acted out and spontaneous speech corpora. Emotion classification was performed using k-NN algorithm.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.