Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 64

Liczba wyników na stronie
first rewind previous Strona / 4 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  rozpoznawanie twarzy
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 4 next fast forward last
1
Content available remote Smart meeting attendance checking based on a multi-biometric recognition system
EN
Multimodal biometric can address some of the restrictions of the unimodal biometric by the combination of multi-biometric information for the same person in the decision-making operation. In this regard, the development in deep learning technologies has been employed in the multimodal biometric system. The deep learning techniques in object detection, such as face recognition and voice identification, are become more popular. Meeting Attendance checking carry out a very important role in meeting management. The manual checking attendance such as calling names or sign-in sheets is time-consuming. Face recognition and voice identification can be applied for attendance checks based on deep learning techniques. This paper presents an automatic multimodal biometric attendance checking system using Convolutional Neural Networks (CNN). The system uses a known dataset for the meeting participants, to train the CNN algorithm with a known set of input data. A computer with a high-quality webcam is used during the meeting attendance check, the system detects the attender face and voice then compares it with the known dataset, whenever matched, the attendee’s name will be recorded in an excel file. The final result is an excel file with all attendance names. The result of the system shows that the proposed CNN architectures attained a high accuracy. Furthermore, this result could be beneficial in student attendance records, particularly in surveillance and person identification systems.
PL
Biometria multimodalna może rozwiązać niektóre ograniczenia biometrii unimodalnej poprzez połączenie informacji multibiometrycznych dotyczących tej samej osoby w operacji podejmowania decyzji. W związku z tym rozwój technologii głębokiego uczenia się został wykorzystany w multimodalnym systemie biometrycznym. Coraz popularniejsze stają się techniki uczenia głębokiego w wykrywaniu obiektów, takie jak rozpoznawanie twarzy i identyfikacja głosu. Sprawdzanie obecności na spotkaniach pełni bardzo ważną rolę w zarządzaniu spotkaniami. Ręczne sprawdzanie obecności, takie jak wywoływanie nazwisk lub arkusze logowania, jest czasochłonne. Rozpoznawanie twarzy i identyfikacja głosu mogą być stosowane do sprawdzania obecności w oparciu o techniki głębokiego uczenia się. W artykule przedstawiono automatyczny multimodalny biometryczny system sprawdzania obecności z wykorzystaniem Convolutional Neural Networks (CNN). System wykorzystuje znany zbiór danych dla uczestników spotkania, aby wytrenować algorytm CNN ze znanym zbiorem danych wejściowych. Podczas sprawdzania obecności na spotkaniu używany jest komputer z wysokiej jakości kamerą internetową, system wykrywa twarz i głos uczestnika, a następnie porównuje je ze znanym zestawem danych, po dopasowaniu nazwisko uczestnika zostanie zapisane w pliku Excel. Ostatecznym wynikiem jest plik Excela ze wszystkimi nazwami obecności. Wynik działania systemu pokazuje, że proponowane architektury CNN osiągnęły wysoką dokładność. Ponadto wynik ten może być korzystny w rejestrach obecności uczniów, zwłaszcza w systemach nadzoru i identyfikacji osób.
PL
Tematyka pracy obejmuje sposób realizacji aplikacji mobilnych z usługami rozpoznawania twarzy (ang. face recognition) w chmurze obliczeniowej oraz sposoby wykorzystania takich rozwiązań. Opisane zostały popularne platformy chmurowe mające w swojej ofercie usługę rozpoznawania twarzy. W pracy przedstawiono również etap projektowania oraz tworzenia aplikacji. Po jej utworzeniu została przetestowana funkcjonalność na różnych zdjęciach. W podsumowaniu wyszczególniono główne wady i zalety aplikacji oraz przedstawiono wnioski dotyczące podejmowanego tematu.
EN
The subject of this work includes the method of implementing mobile applications with face recognition services in the computing cloud and the ways of using such solutions. Popular cloud platforms that offer a facial recognition service were described. The next part of the work presents the application’s design stage. After its implementation, the functionality was tested in various photos. The summary lists the main advantages and disadvantages of the application as well as conclusions on the topic under consideration.
3
Content available The vehicle driver safety prediction system
EN
The article presents analysis of road crash accidents. It presents the evolution of safety systems, starting from a description of the currently used vehicle-based systems, with particular emphasis on the prediction of the driver falling asleep. The article also proposes a proprietary system of sleep prediction based on the face detection of drivers. The detection of facial landmarks is presented as a two-step process: an algorithm finds faces in general, and then needs to localize key facial structures within the face region of interest.
EN
The paper considers the problem of increasing the generalization ability of classification systems by creating an ensemble of classifiers based on the CNN architecture. Different structures of the ensemble will be considered and compared. Deep learning fulfills an important role in the developed system. The numerical descriptors created in the last locally connected convolution layer of CNN flattened to the form of a vector, are subjected to a few different selection mechanisms. Each of them chooses the independent set of features, selected according to the applied assessment techniques. Their results are combined with three classifiers: softmax, support vector machine, and random forest of the decision tree. All of them do simultaneously the same classification task. Their results are integrated into the final verdict of the ensemble. Different forms of arrangement of the ensemble are considered and tested on the recognition of facial images. Two different databases are used in experiments. One was composed of 68 classes of greyscale images and the second of 276 classes of color images. The results of experiments have shown high improvement of class recognition resulting from the application of the properly designed ensemble.
5
Content available remote Wizerunek twarzy w identyfikacji i weryfikacji tożsamości
PL
Identyfikatory naturalne są najstarszym i zarazem najdynamiczniej rozwijanym środkiem weryfikacji tożsamości człowieka. Rozwój ten dotyczy zwłaszcza zaawansowanych technik biometrycznych z elementami sztucznej inteligencji. W artykule zostały przedstawione - na tle innych środków identyfikacji człowieka - podstawowe zasady weryfikacji tożsamości na podstawie wizerunku twarzy.
EN
Natural means of identification are the oldest and most dynamically developed ways of verifying human identity. Their development concerns in particular advanced biometric techniques with elements of artificial intelligence. This article presents - against the background of other means of human identification - the basic principles used to verify identity based on the image of the face.
6
Content available Rgb-D face recognition using LBP-DCT algorithm
EN
Face recognition is one of the applications in image processing that recognizes or checks an individual's identity. 2D images are used to identify the face, but the problem is that this kind of image is very sensitive to changes in lighting and various angles of view. The images captured by 3D camera and stereo camera can also be used for recognition, but fairly long processing times is needed. RGB-D images that Kinect produces are used as a new alternative approach to 3D images. Such cameras cost less and can be used in any situation and any environment. This paper shows the face recognition algorithms’ performance using RGB-D images. These algorithms calculate the descriptor which uses RGB and Depth map faces based on local binary pattern. Those images are also tested for the fusion of LBP and DCT methods. The fusion of LBP and DCT approach produces a recognition rate of 97.5% during the experiment
EN
Empathy is an important social ability in early childhood development. One of the significant characteristics of children with autism spectrum disorder (ASD) is their lack of empathy, which makes it difficult for them to understand other's emotions and to judge other's behavioral intentions, leading to social disorders. This research designed and implemented a facial expression analysis system that could obtain and analyze the real-time expressions of children when viewing stimulus, and evaluate the empathy differences between ASD children and typical development children. The research results provided new ideas for evaluation of ASD children, and helped to develop empathy intervention plans.
8
Content available remote CNN application in face recognition
EN
The paper presents application of the convolutional neural network (CNN) in face recognition. The CNN is regarded nowadays as the most efficient tool in image analysis. This technique was applied to recognition of two databases of faces: the own base containing 68 classes of very different variants of face composition (grey images) and 244 classes of color face images represented as RGB images (MUCT data base). This paper will compare different solutions of classifiers applied in CNN, autoencoder and the traditional approach relying on classical feature generation methods and application of support vector machine classifier. The numerical results of experiments performed on the face image database will be presented and discussed.
PL
Praca przedstawia zastosowanie sieci CNN w rozpoznaniu obrazów twarzy. Twarze poddane eksperymentom pochodzą z dwu baz danych. Jedna z nich jest własną bazą zawierającą 68 klas reprezentowanych w postaci obrazów w skali szarości i drugą (MUCT) zawierającą 244 klasy reprezentujące obrazy kolorowe RGB. Zbadano i porównano różne metody rozpoznania obrazów. Jedna z nich polega na zastosowaniu konwolucyjnej sieci neuronowej CNN z dwoma różnymi klasyfikatorami końcowymi (softmax i SVM). Inne głębokie podejście stosuje autoenkoder do generacji cech i SVM jako klasyfikator. Wyniki porównano z klasycznym podejściem wykorzystującym transformację PCA w połączeniu z klasyfikatorem SVM.
PL
W artykule przedstawiono wyniki oryginalnych badań nad zastosowaniem sieci neuronowej wykorzystującej techniki głębokiego uczenia w zadaniu identyfikacji tożsamości na podstawie obrazów twarzy zarejestrowanych w zakresie widzialnym i w podczerwieni. W badaniach użyte zostały obrazy twarzy eksponowanych w zmiennych ale kontrolowanych warunkach. Na podstawie uzyskanych wyników można stwierdzić, że oba badane zakresy spektralne dostarczają istotnych ale różnych informacji o tożsamości danej osoby, które się wzajemnie uzupełniają.
EN
The paper presents the results of the original research on the application of a neural network using deep learning techniques in the task of identity recognition on the basis of facial images acquired in both visual and thermal radiation ranges. In the research, the database containing images acquired in various but controlled conditions was used. On the basis of the obtained results it can be established that both investigated spectral ranges provide distinctive and complementary details about the identity of an examined person.
EN
Although the unimodal biometric recognition (such as face and palmprint) has higher convenience, its security is also relatively weak. The recognition accuracy is easy affected by many factors such as ambient light and recognition distance etc. To address this issue, we present a weighted multimodal biometric recognition algorithm with face and palmprint based on histogram of contourlet oriented gradient (HCOG) feature description. We employ the nonsubsampled contour transform (NSCT) to decompose the face and palmprint images, and the HOG method is adopted to extract the feature, which is named as HCOG feature. Then the dimension reduction process is applied on the HCOG feature and a novel weight value computation method is proposed to accomplish the multimodal biometric fusion recognition. Extensive experiments illustrate that our proposed weighted fusion recognition can achieve excellent recognition accuracy rates and outmatches the unimodal biometric recognition methods.
EN
Since the plastic surgery should consider that facial impression is always dependent on current facial emotion, it came to be verified how precise classification of facial images into sets of defined facial emotions is.
EN
The paper presents application of the convolutional neural network (CNN) in face recognition. Data bases of faces have been represented by the visible and thermal infra-red images. The CNN is regarded nowadays as the most efficient tool in image analysis. This technique was applied to recognition of 50 classes of face images represented in visual and infrared imagery. This approach will be compared to the traditional approach relying on classical feature generation methods and application of support vector machine classifier. The numerical results of experiments performed on the face image data base will be presented and discussed.
PL
Praca przedstawia porównanie metod rozpoznawania twarzy przy zastosowaniu konwolucyjnych sieci neuronowych (CNN) i klasycznego podejścia opartego na specjalistycznych metodach generacji cech diagnostycznych. Twarze są reprezentowane w postaci 2 rodzajów obrazów: widzialnego oraz w podczerwieni. Zbadano i porównano dwa podejścia do analizy obrazów. Jeden polega na zastosowaniu konwolucyjnej sieci neuronowej łączącej w jednym systemie generację nienadzorowaną cech diagnostycznych i klasyfikację. Drugie, klasyczne podejście, rozdzielające obie części przetwarzania. Generacja cech odbywa się poprzez zastosowanie specjalistycznych metod (tutaj PCA, KPCA i tSNE), a klasyfikacja wykorzystuje te cechy jako sygnały wejściowe dla oddzielnego klasyfikatora SVM. Wyniki eksperymentów numerycznych zostały przedstawione i porównane na bazie 50 różnych obrazów twarzy stworzonych w różnych warunkach oświetlenia i akwizycji.
EN
In the present paper, we deal with the application of the probabilistic approach, which makes it possible to optimize the face image classification task. The mathematical expectations and variances of the investigated random parameters are used as basic statistics. The proposed method allows us to carry out a fast and reliable preliminary classification and to exclude obviously dissimilar face image from the further analysis.
PL
W niniejszej pracy mamy do czynienia z zastosowaniem podejścia probabilistycznego, które pozwala zoptymalizować zadanie klasyfikacji obrazów twarzy. Wartości oczekiwane i wariancje badanych parametrów losowych są stosowane jako podstawowe statystyki. Zaproponowana metoda pozwala przeprowadzić szybką i właściwą wstępną klasyfikację i wykluczyć bardzo odmienne obrazy twarzy z dalszej analizy.
EN
The bank client identity verification system developed in the course of the IDENT project is presented. The total number of five biometric modalities including: dynamic handwritten signature proofing, voice recognition, face image verification, face contour extraction and hand blood vessels distribution comparison have been developed and studied. The experimental data were acquired employing multiple biometric sensors installed at engineered biometric terminals. The biometric portraits of more than 10 000 bank clients were registered and stored in the database during the presented study and then verified experimentally. Problem-specific survey was done on the basis of questionnaires completed by the subjects in order to assess the look and feel of the developed biometric system as well as to collect opinions concerning its implementation in banking outlets. A discussion concerning the quality of registered data and results achieved in the study is included.
PL
W artykule przedstawiono system weryfikacji tożsamości klienta bankowego opracowany w ramach projektu IDENT. Opracowano i przebadano pięć metod biometrycznych, w tym: rozpoznawanie dynamicznej reprezentacji podpisu odręcznego, weryfikację głosową, weryfikację obrazu twarzy, rozpoznawanie ekstrahonego konturu twarzy i porównywanie rozkładu naczyń krwionośnych dłoni. Przedstawione w artykule dane badawcze pozyskano za pomocą wielu czujników biometrycznych zainstalowanych w skonstruowanych stanowiskach biometrycznych. Łącznie z wykorzystaniem skonstruowanych stanowisk zarejestrowano próbki biometryczne pochodzące od ponad 10 000 klientów banku. W trakcie badania uczestnicy, tzn. klienci i doradcy bankowi byli proszeni o wypełnienie ankiet w celu ułatwienia oceny wyglądu i sposobu działania opracowanego systemu biometrycznego oraz zebrania opinii na temat jego przyszłego wdrożenia w placówkach bankowych. W artykule przedstawiono wyniki analiz zgromadzonych danych, z uwzględnieniem wzajemnej korelacji poszczególnych modalności oraz semantycznej analizy ankiet wypełnionych przez uczestników badania.
EN
The traditional super-resolution (SR) reconstruction algorithm based on neighborhood embedding preserves the local geometric structure of image block manifold to reconstruct high-resolution (HR) manifold. However, when the magnification is large, the low resolution (LR) image is seriously degraded and most of the information is lost after down-sampling. The neighborhood relation of the LR manifold can not reflect the inherent data structure. In order to solve the problem effectively, we propose a face image SR algorithm based on pre-amplification non-negative restricted neighborhood embedding. In the training phase, the LR image is pre-amplified so that there are more similar manifold structures between the HR and LR resolution images. The constraints of the reconstructed coefficients are loosened and the HR image blocks are iteratively updated to obtain the reconstructed weights. The experimental results show that the proposed method has a better reconstruction effect compared with some traditional learning algorithms.
EN
The article presents two methods of face detection. The first of these is a method Haar classifier cascade. The second is a face detection method based on detection of skin color areas. They propose a face detection algorithm based on skin color. The main emphasis lies on the effectiveness of the algorithm in order to properly recognize a human face. The results allowed to evaluate the effectiveness of the proposed method.
PL
W artykule przedstawiono dwie metody detekcji twarzy. Pierwsza z nich to metoda kaskady klasyfikatorów Haara. W metodzie tej ważne jest położenie twarzy w stosunku do kąta obrócenia zdjęcia. Rozpoznawane są tylko „pionowe” twarze. Drugą stanowi metoda detekcji twarzy w oparciu o wykrywanie obszarów o kolorze skóry. Zaproponowano algorytm detekcji twarzy w oparciu o kolor skóry. Główny nacisk położono na skuteczność algorytmu w celu poprawnego rozpoznania ludzkiej twarzy. Otrzymane wyniki pozwoliły ocenić skuteczność zaproponowanej metody.
PL
Algorytmy służące automatycznej generacji treści multimedialnych zyskują na znaczeniu i popularności, jednakże wymagają dobrze ustrukturyzowanych źródeł danych, szczególnie w scenariuszach generowania treści na żądanie. W tym artykule zaproponowano metodę automatycznej identyfikacji koloru sukien. Prezentowane rozwiązanie używa cech Haara do detekcji twarzy i oczu a następnie korzysta z cech proporcji ludzkiego ciała by wyznaczyć obszar próbkowania koloru. Algorytm przetestowano na bazie składającej się z 50 obrazów testowych. Osiągnięto 79% skuteczność rozpoznawania koloru. W pozostałych 21% przypadków przyczynami niepowodzenia były problemy z prawidłową detekcją twarzy, lokalizacją twarzy i prawidłową identyfikacją koloru.
EN
Recently a new trend in media can be observed – automated generation of content. Algorithms used for this process utilize commonly accessible and well structured data sources in order to produce on-demand content for the user. Good description and structure is required also for multimedia content. In this paper we propose a method for automated identification of celebrity dress colour. Our solution is based on Haar features for eye and face detection and smart selection of sampling region based on the proportions of the human body. We have tested the method on a database of 50 images and have obtained 79% accuracy in colour detection. In the 21% cases the problems encountered were with face detection, proper face location and proper colour identification.
18
PL
Artykuł przedstawia badania związane z identyfikacją osób w sekwencji wideo rejestrowanej za pomocą kamery IP monitoringu wizyjnego. Celem prac było zbudowanie systemu umożliwiającego rozpoznawanie twarzy przy wykorzystaniu minikomputera pracującego pod kontrolą systemu Linux. Przyjęto także założenie, że współpraca użytkowników systemu jest ograniczona, czyli akwizycja zdjęcia twarzy nie odbywa się frontalnie zgodnie z zaleceniami norm biometrycznych. Przeprowadzono badania z wykorzystaniem bazy danych ChokePoint w celu dobrania najlepszych parametrów metod wykorzystujących techniki PCA, LDA oraz LBPH. Oprogramowanie przygotowano w języku Python z użyciem bibliotek OpenCV.
EN
The paper presents studies related to the people identification in video sequences recorded with a video surveillance IP camera. The aim of this work was to build a system for face recognition using a minicomputer running with Linux. A premise was also a limited collaboration of the users with the system, i.e, that face acquisitions are not neceserily made frontally in accordance with recommendations of the biometric standards. Thr research was conducted using the ChokePoint database in order to select the best parameters for the analyzed methods: PCA, LDA, and LBPH. The software was prepared in Python using the OpenCV libraries.
EN
In this work, a modified version of the elastic bunch graph matching (EBGM) algorithm for face recognition is introduced. First, faces are detected by using a fuzzy skin detector based on the RGB color space. Then, the fiducial points for the facial graph are extracted automatically by adjusting a grid of points to the result of an edge detector. After that, the position of the nodes, their relation with their neighbors and their Gabor jets are calculated in order to obtain the feature vector defining each face. A self-organizing map (SOM) framework is shown afterwards. Thus, the calculation of the winning neuron and the recognition process are performed by using a similarity function that takes into account both the geometric and texture information of the facial graph. The set of experiments carried out for our SOM-EBGM method shows the accuracy of our proposal when compared with other state-of the-art methods.
20
Content available Acquisition of databases for facial analysis
EN
This article describes guidelines and recommendations for acquisition of databases for facial analysis. New devices and methods for both face recognition and facial expression recognition are constantly developed. In order to evaluate these devices and methods, dedicated datasets are recorded. Acquisition of a database for facial analysis is not an easy task and requires taking into account multiple issues. Based on our experience with recording databases for facial expression recognition, we provide guidelines regarding the acquisition process. Multiple aspects of such process are discussed in this work, namely selection of sensors and data streams, design and structure of the database, technical aspects, acquisition conditions and design of the user interface. Recommendations how to address these aspects are provided and justified. An acquisition software, designed according to these guidelines, is also discussed. The software was used for recording an extended version of our previous facial expression recognition database and proved to both ensure correct data and be convenient for the recorded subjects.
first rewind previous Strona / 4 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.