Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 12

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
Nowoczesne systemy monitoringu działają na zasadzie automatycznego wykrywania niebezpiecznych zdarzeń na podstawie analizy obrazu z kamer i dźwięku z mikrofonów. W niniejszej publikacji skupiono się na pierwszym etapie rozpoznawania zdarzeń dźwiękowych, jakim jest parametryzacja dźwięku. Podstawą do skutecznego działania systemu jest znalezienie parametrów, których zmienność najlepiej odzwierciedla cechy charakterystyczne dźwięku związane ze zdarzeniami niebezpiecznymi. W tym celu stworzono zbiór 28 parametrów, w którym znajdują się parametry opisane w standardzie MPEG-7 i parametry zdefiniowane specjalnie dla tego zastosowania. Przedstawiono metody obliczania parametrów z postaci czasowej lub widmowej sygnału. Następnie zbiór ten został sprawdzony poprzez badanie skuteczności klasyfikacji przykładowych próbek dźwiękowych przy pomocy klasyfikatora opartego o maszynę wektorów wspierających (SVM).
EN
Modern surveillance systems employ both acoustic and video signal analysis for dangerous event detection. Calculation of parameters is the first stage of a sound recognition algorithm. The key to efficient sound classification is to define parameters, which accurately reflect the differences between recognized classes. A method for parametrization of sounds for recognizing hazardous sound events is presented. A set of 28 parameters is described, which contains dedicated signal features and MPEG-7 descriptors chosen on the basis of experiments and statistical analysis.. Methods for calculation of features are presented. A classifier using the described parameters is tested, yielding high accuracy results.
2
Content available remote Automatic singing quality recognition employing artificial neural networks
EN
The aim of the paper is to determine how quality of a singing voice can be recognized automatically. For this purpose, a database of singing voice sounds with samples of voices of trained and untrained singers was created and is presented. The methods of a singing voice parameterization are shortly reviewed and a set of descriptors is outlined. Each of the presented samples is parameterized and judged by experts, and the resulting feature vectors and quality scores are then used to train an artificial neural network. A comparison between experts' judgments and automatic recognition results is performed. Finally, statistical methods are applied to prove that an artificial neural network is able to automatically determine the quality of a singing voice with the accuracy very similar to expert assessments. The paper includes the discussion of results and presents derived conclusions.
EN
This document describes the methodology of creating semantically-enriched multimedia mobile services using tools and service enablers provided by the DeSyME project. A brief introduction to the Semantic Web is presented along with the explanation of its relation to the subject of Web Services. Next, the description of the DeSyME Framework is included. Finally, examples of multimedia mobile services developed at Gdańsk University of Technology are presented to illustrate possible utilities of described technologies.
PL
Dokument przedstawia metodologię tworzenia semantycznie-rozszerzonych multimedialnych usług mobilnych z wykorzystaniem narzędzi i ułatwień oferowanych przez projekt DESYME. Zaprezentowano zwięzły wstęp do tematyki Sieci Semantycznej wraz z wyjaśnieniem jej związku z zagadnieniami Web Services. Następnie przedstawiono opis projektu DESYME. Przedstawiono również przykładowe usługi multimedialne, które są opracowywane w Katedrze Systemów Multimedialnych WETI PG, jako ilustrację możliwych zastosowań opisywanych technologii.
PL
Przedstawiono założenia, realizowanego z udziałem Katedry Systemów Multimedialnych, projektu europejskiego COPSIMO, którego celem jest opracowanie sieci typu peer-to-peer, umożliwiającej wymianę nagrań multimedialnych na terenie krajów Unii Europejskiej. Sieć ta będzie zbudowana z wykorzystaniem architektury niewykorzystującej serwerów centralnych i wyposażona w mechanizmy zabezpieczające prawa autorskie twórców.
EN
The foundations of the COPSIMO European project are presented in this paper. The aim of the COPSIMO project, in which Multimedia System Department participates, is to develop a peer-to-peer network for the distribution of the multimedia content in the European Union. This network will be based on the serverless architecture and will include digital rights management algorithms.
PL
W pracy przedstawiono ogólną charakterystykę opracowanego systemu rejestracji i rekonstrukcji sygnału mowy. Zamieszczono skrótowy opis poszczególnych składników systemu, stanowiącego zestaw zaawansowanych narzędzi do rejestracji, analizy i rekonstruowania mowy, zrealizowany w formie oprogramowania komputerowego. Narzędzia te pozwalają na szybkie wyszukiwanie pożądanych fragmentów nagrań oraz poprawę ich jakości na drodze redukcji szumów, zniekształceń i zakłóceń. Przedstawiono również skrótowe informacje na temat wybranych algorytmów rekonstruowania mowy, których zastosowanie pozwoliło na uzyskanie szczególnie znaczącego przyrostu zrozumiałości przetwarzanej mowy.
EN
The speech received by radio communication from jet pilots can be severely degraded by noise and various distortions. A system was developed for multi-channel recording of voice communication with jet pilots extended with a toolbox containing some advanced DSP algorithms for speech enhancement. Moreover, some innovative solutions were adopted, including the method for synchronizing transmission received from many radio stations in order to produce surround sound enabling additional perceptual filtration of speech. Some selected components of the engineered multi-tusk speech enhancement system are presented fu the paper.
PL
W artykule przedstawiono system rejestracji, analizy oraz rekonstrukcji i archiwizacji sygnału mowy, który został opracowany przy współpracy z Katedrą Multimediów Politechniki Gdańskiej w ramach projektu celowego Nr 113/BO/B. Artykuł zawiera opis poszczególnych elementów składowych tego systemu oraz skrótowy sposób ich zastosowania. Przedstawione zostały wykorzystywane algorytmy rekonstrukcji mowy oraz wyniki eksperymentów poprawy jakości sygnału mowy z ich wykorzystaniem.
EN
The speech received by radio communication from jet pilots can be severely degraded by noise and various distortions. A system was developed for multi-channel recording of voice communication with jet pilots extended with a toolbox containing some advanced DSP algorithms for speech enhancement. Moreover, some innovative solutions were adopted, including the method for synchronizing transmission received from many radio stations in order to produce surround sound enabling additional perceptual filtration of speech. Some selected components of the engineered multi-task speech enhancement system are presented in the paper.
PL
Referat przedstawia podział parametrów głosu śpiewaczego z punktu widzenia metod praktycznego ich wyznaczenia. W oparciu o zaprezentowany model narządu śpiewu omówione są zarówno parametry statyczne jak i dynamiczne ze szczególnym uwzględnieniem metod parametryzacji formantów, tonu krtaniowego i efektu wibrato. W referacie przedstawiono zaimplementowane w środowisku MATLAB narzędzia do analizy śpiewu umożliwiające wyznaczenie jego parametrycznego opisu, co stanowi najważniejszy blok projektowanego systemu analizy i automatycznego rozpoznawania głosów śpiewaczych.
EN
In the paper singing voice parameters are clasified . Basing on singing voice organ model some static and dynamic parameters are discussed. Formant and glottal source estimation algotithms and vibrato parameters are presented . Parametrization task is presented in context of an objective description and an automatic singing voice quality recognition system.
PL
Referat opisuje dwie główne metody ekstrakcji tonu krtaniowego w śpiewie. Obie metody oparte są o filtrację odwrotną sygnału, ale rozróżnia je sposób aproksymacji charakterystyki częstotliwościowej traktu głosowego. Pierwsza metoda opiera się na wygładzaniu cepstralnym, druga na aproksymacji charakterystyki formantowości metodą predykcji liniowej. W referacie omówiono algorytm detekcji tonalności i automatycznego wyboru analizowanej ramki, przedstawiono obie metody ekstrakcji sygnału krtaniowego, określono teoretyczne parametry tonu krtaniowego i dokonano porównania skuteczności działania przedstawionych metod detekcji dla sygnałów śpiewu reprezentujących dwa różne style muzyczne - śpiew operowy i gardłowy śpiewy rozrywkowy.
EN
In the paper two glottal source extraction methods are presented. Both are based on inverse filtration of singing signal, but differ in vocal tract formant spectrum estimation method. First is based on spectral smoothing, second on linear prediction. In the paper a system for automatic harmonic frame selection is presented, later two glottal source estimation methods are shown and teoretical glottal parametrs are described. At the end a comparison of efficiency of presented methods is shown for sample singing signals representing two singing styles - opera singing and throat singing.
PL
Skonstruowano automatyczny analizator zawartości sumy węglowodorów (THC) oraz ich składu (od metanu do pentanów). Za pomocą jednego z dwóch detektorów płomieniowo jonizacyjnych był prowadzony ciągły pomiar THC, a drugiego — okresowy (co 90 lub 150 s) pomiar składu węglowodorów, po ich rozdzieleniu w kolumnie chromatograficznej. Do digitalizacji sygnału zastosowano szesnastobitowy przetwornik analogowo-cyfrowy, zapewniający zakres dynamiczny 4,8 (praktycznie 4) rzędu wielkości. Pełen zakres pomiarowy (6 rzędów wielkości, 1 ppm do 100% obj.) zapewnia system automatycznego rozcieńczania próbki (lub wzorca) czystym powietrzem. Pełną kontrolę cyklu pracy (2 miesiące bez nadzoru, z codzienną rekalibracją) zapewnia mikrokomputer. Instrument umożliwia pomiar z precyzją niegorszą niż 5% na granicy oznaczalności oraz archiwizację danych w standardzie N-LAB.
EN
An automated analyser of total hydrocarbon contents (THC) and hydrocarbon composition (from methane to pentanes) was constructed and tested, both in laboratory and field exploitation. It employed two channel analysis: continuous measurements of THC and periodic (90 s or 150 s) composition analysis after separation of hydrocarbons on a GC column. Flame ionisation detectors were utilised in both channels. Simple 16-bit analog-to-digital converter is used, while the full measuring range (6 orders of magnitude) is ensured by automatic dilution of the sample (or standard) with clean air.
PL
Celem referatu jest przedstawienie założeń sieciowej implementacji multimedialnego systemu rozpoznawania informacji muzycznej. Przedyskutowana zostanie skuteczność zaimplementowanego algorytmu detekcji częstotliwości podstawowej dźwięków muzycznych. W referacie zostaną zawarte również wyniki eksperymentów związanych z badaniem wpływu opisu reprezentacji sygnałowej na skuteczność identyfikacji instrumentów muzycznych. Eksperymenty te są prowadzone w oparciu o system decyzyjny bazujący na sztucznych sieciach neuronowych.
EN
The aim of the paper is to verify whether a feature vector based on chosen MPEG-7 sound parameters is sufficient for automatic classification of musical instruments. For that purpose a decision system based on artificial neural network (ANN) is constructed. Experiments consist of several steps. First, pitch detection is performed. Then, parametrization of musical sounds within a group of 12 instruments based on some chosen parameters contained in the MPEG-7 standard and parameters derived from the wavelet analysis is performed. ANNs are trained with feature vectors consisted of parameters contained in the MPEG-7 standard, those extracted from the wavelet analysis and parameters derived from both representations. A comparison of results of the musical instrument classification is done and conclusions are derived.
12
Content available remote Estymacja częstotliwości podstawowej w środowisku Matlab
PL
Estymacja częstotliwości podstawowej dźwięków wydaje się stosunkowo mało złożonym zagadnieniem z dziedziny cyfrowego przetwarzania sygnałów, niemniej jednak w celu uniknięcia dość licznie występujących w praktyce błędów estymacji konieczne jest stosowanie wiedzy o charakterystyce analizowanych sygnałów i o zakresie występowania dopuszczalnych częstotliwości. W referacie zaprezentowano praktyczne aspekty implementacji algorytmu wykorzystującego korelację skrośną w środowisku Matlab oraz zaproponowano metody wstępnego przetwarzania minimalizujące występowanie błędów oktawowych oraz metody polepszenia skuteczności detekcji w warunkach występowania szumu w sygnale muzycznym. Algorytm ten będzie wykorzystywany w ramach zajęć z akustyki muzycznej.
EN
Estimation of fundamental frequency of musical sounds seems to be an easy task, however in order to avoid errors in pitch estimation in the implemented algorithm information both on characteristics of the analyzed sounds and the expected frequency range should be utilized. This paper presents some practical aspects of pitch detection algorithm implementation in the Matlab environment. Preprocessing methods that aim at minimizing octave errors appearance and noise influence reduction methods are proposed in order to improve efficiency of the cross correlation-based pitch detection algorithm. The implemented algorithm will be used in musical acoustics laboratory sessions.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.