The article shows a method of storing genomic data as the object in the relational database server. It presents a method of source data migration which is stored in the weakly determined text files on ftp servers. What is more, it describes the formal structure of the Common Language Runtime (CLR) class used to define user data type. Implementations of compulsory and optional methods are also presented. Furthermore, the paper shows a set of implemented matching algorithms and methods of using them to build adherence matrix. Finally, the paper – presents some efficiency tests which prove the advantages of the proposed algorithms.
PL
Artykuł prezentuje sposób zapisu danych opisujących genom w postaci obiektu składowanego w relacyjnym serwerze baz danych. Pokazano metodę migracji danych wejściowych, składowanych w postaci słabo zdeterminowanych plików tekstowych, a dostępnych na serwerach ftp. Opisano formalną konstrukcję obiektu z zastosowaniem CLR oraz implementacje metod obligatoryjnych i fakultatywnych. Przedstawiono oprogramowane algorytmy dopasowania oraz omówiono sposób ich wykorzystania do budowy macierzy przystawania. Artykuł zawiera wyniki kilku testów wydajnościowych potwierdzających zalety proponowanych metod.
W artykule omówiono sposoby pozyskiwania, przetwarzania i reprezentacji sygnałów audio w celu prowadzenia dalszych analiz związanych zarówno z semantyką wypowiedzi, jak również z cechami behawioralnymi mówcy. Przyjęto, że analiza danych powinna być prowadzona możliwie blisko miejsca ich przechowywania, np. w komercyjnych serwerach baz danych z wykorzystaniem enkapsulacji klas obiektowych do elementów programistycznych relacyjnego serwera. Poza wykorzystaniem reprezentacji sygnału za pomocą wektorów wyrażonych w skalach cepstralnych, ważnym elementem analizy jest zastosowanie algorytmów dopasowania strumieni wektorów danych – Spring DTW. W przypadku analizy stanów emocjonalnych do wzmocnienia procesu klasyfikacji zastosowano komitety klasyfikatorów działających na różnych zestawach atrybutów, a analizę odniesiono do modelu Plutchika.
EN
The article describes methods of acquisition, processing and representation of audio signals for the purpose of further analysis associated with both the semantics of expression, as well as behavioral characteristics of the speaker. It is assumed that the data analysis should be carried out as close to the place of storage, eg. in commercial database servers using the encapsulation of object classes to relational server software components. In addition to using a representation of a signal as vectors in cepstral scale, an important part of the analysis is to apply matching algorithms - Spring DTW. In order to enhance the analysis of emotional states classification committees consiting of classifiers operating on different sets of attributes were used. Emotion detection was based on Plutchik’s wheel.
Celem pracy jest omówienie różnych metod klasteryzacji (grupowania) w sieciach społecznych. Analizowane dane są wstępnie podzielone na klastry według miejsca zamieszkania członków sieci. Opracowany algorytm i bazująca na nim aplikacja dokonuje oceny jakości grupowania oraz umożliwia ponowny podział według różnych metod, a następnie porównanie wyników ich działania. Zaimplementowanych zostało wiele algorytmów, których działanie daje odmienne rezultaty. Aplikacja współpracuje z serwerem baz danych Microsoft SQL Server. Zastosowane zostały dwa typy użytkownika (UDT) w technologii CLR, które implementują obiekty odpowiadające składowym sieci-grafu [1]: osobę (SocNetPerson) i klaster (SocNetCluster).
EN
The purpose of work is to discuss the various methods of clustering in social networks. Analyzed data are initially divided into clusters according to the place of residence of the members of the network. Developed algorithm and application based on it evaluates clustering quality and enables redistribution according to various methods, and then comparing the results of their actions. There were implemented many algorithms which gives different results. The application works with database created on Microsoft SQL Server platform. Two user defined data types have been applied in CLR technologies that implement the objects corresponding to the component network-graph: person (SocNetPerson) and the cluster (SocNetCluster).
The purpose of this paper is to discuss methods of visualization and the reorganization of not directed, not weighted, coherent graphs on a plane. Shows two algorithms that are implemented using created software - Graph Visualizer. The application is designed to put vertex of specified graph in the most readable form. As the main criteria assumed the smallest number of intersections and even and symmetrical arrangement of vertices. The software also allows interactively create and modify graph by user. At work shows a comparison of the two algorithms, the differences between them, and they typical applications.
EN
Celem niniejszej pracy jest omówienie metod wizualizacji i reorganizacji grafów nieskierowanych, nieważonych, spójnych, na płaszczyźnie. Przedstawiono dwa algorytmy, które zostały zaimplementowane za pomocą utworzonego oprogramowania Graph Visualizer. Aplikacja ma za zadanie ułożenie wierzchołków zadanego grafu w sposób jak najbardziej czytelny. Jako główne kryteria przyjęto jak najmniejszą liczbę przecięć krawędzi oraz równomierne i symetryczne ułożenie wierzchołków. Oprogramowanie umożliwia także interaktywne tworzenie i modyfikację grafu przez użytkownika. W pracy przedstawiono porównanie obydwu algorytmów, różnice między nimi oraz typowe zastosowania
Celem niniejszej pracy jest zaprezentowanie możliwości zastosowania mapowanych na elementy proceduralne Transact SQL klas obiektowych CLR tworzonych na platformie .NET w złożonych algorytmach przetwarzania. Przedstawione zostały podstawy teoretyczne algorytmów dopasowania łańcuchów dla alfabetów skończonych. Dla wprowadzonych alfabetów nieskończonych rozwiązania te nie mogą być w sposób prosty zmodyfikowane, dlatego zaproponowany został algorytm DTW (Dynamic Time Warping), który został oprogramowany z zastosowaniem reguł mapowania do obiektów rozszerzenia proceduralnego SQL. Przedstawiono elementy praktycznej realizacji praktycznej oraz dokonano omówienia wyników eksperymentu numerycznego dopasowującego gesty.
EN
The purpose of this work is to present the possibility to use mapped to the procedural elements Transact SQL CLR object classes that are created on the NET platform in a complex processing algorithms. There are presented theoretical algorithms for matching chains for finite symbol set alphabets. For introduced infinite symbol set alphabets solutions may not be easily modified, so it was proposed the algorithm DTW (Dynamic Time Warping), which was programmed using the mapping rules for procedural extension to SQL. There where shown elements of the practical implementation and the experimental results of matching gestures were discuss.
Przedmiotem niniejszego artykułu jest parametryzacja sygnału mowy emocjonalnej przy użyciu współczynników preceptualnych. Dokonano porównania wydajności współczynników MFCC z współczynnikami HFCC oraz przynależnych im parametrów dynamicznych. Na podstawie bazy mowy emocjonalnej oceniono skuteczność wybranych współczynników.
EN
The following paper presents parameterization of emotional speech using perceptual coefficients. The comparison of MFCC to HFCC and adherent dynamic parameters is presented. Basing on emotional speech database efficiency of used coefficients was evaluated.
Głównym tematem artykułu jest stworzenie systemu wspierającego proces analizy sieci społecznościowych. W celu rozwiązania problemu utworzony został typ użytkownika z zastosowaniem CLR, który został inkapsulowany na serwer MS SQL. Został on zastosowany do przechowywania informacji o osobach stanowiących węzły sieci. Ponadto opracowany został mechanizm generowania danych losowych stanowiących testową zawartość bazy. Końcowym efektem są zrealizowane testy wydajnościowe, które pozwalają wnioskować o dużej użyteczności zaproponowanych rozwiązań.
Artykuł zawiera prezentacje metod pozwalających na zarządzanie danymi medycznymi z poziomu centralnego serwera bazy danych. Jako nośnik wykorzystany został format DICOM, który jest standardem wymiany informacji w obrazowych urządzeniach medycznych - skanerach medycznych. Przedstawiono metody przechowywania oraz ekstrakcji metadanych na platformie serwera danych ORACLE, wykorzystując wbudowane typy obiektowe oraz biblioteki API. Poza bieżącym przetwarzaniem zbudowano bank filtrów graficznych pozwalających na obróbkę informacji wizualnej, w celu poprawy jakości oraz przede wszystkim ekstrakcję cech.
EN
Article contains presentations of methods allowing to manage medical devices from a central database server. As the media was used DICOM format, which is the standard for the information exchange in the imaging medical devices - medical scanners. Provides methods for the storage and extraction of metadata on the ORACLE server platform, using the built-in object types and APIs. Beyond the current processing, the graphics filters bank was built for visually information processing. It gives possibility to improve processing image quality and especially exams data by features extraction.
Artykuł zawiera prezentacje metod pozwalających na konwersje danych, zapisanych w postaci plików grafiki wektorowej do wewnętrznej reprezentacji w bazie danych, w postaci danych typu obiektowego – spatial. Został zrealizowany również mechanizm konwersji odwrotnej pozwalający na eksport danych zapisanych w bazie do postaci zewnętrznego pliku graficznego. Zapewniono wierną rekonstrukcje informacji graficznej.
EN
The paper contains presentations of methods allowing for conversions of data saved in the form of vector graphic files to the internal representation of a database, spatial data type. Was realized also the mechanism of the reverse conversion which allows the export of the data stored in the database to an external image file. Ensured complete reconstruction of graphics information.
The aim of this work is present methods of keyword search in large volumes of text data stored on server-side commercial databases. Algorithms used to implement this task are described, together with an assessment of their relevance in the implementation of the practical. Implementation of the algorithm used procedural extension of the SQL language. Also the client application written in a higher level language that uses software algorithms on the server side is shown.
PL
Celem niniejszej pracy jest zaprezentowanie metod wyszukiwania słów kluczowych w dużych wolumenach danych tekstowych przechowywanych po stronie komercyjnego serwera baz danych. Opisane zostały algorytmy stosowane do realizacji tego zadania wraz z oceną ich przydatności w realizacji praktycznej. Opisana została realizacja wybranego algorytmu po stronie rozszerzenia proceduralnego języka zapytań SQL. Przedstawiono również realizację końcówki klienckiej w języku wyższego rzędu wykorzystującej algorytmy oprogramowane po stronie serwera.
W artykule tym zaprezentowano autorski system automatycznych wyzwalaczy audio dla bazodanowej platformy Oracle. Opisano nowatorski proces wykrywania słów kluczowych oraz pokazane zostały wskaźniki jakościowe.
EN
This article presents novel automatic audio triggers system designed for Oracle database platform. The article contains novel keyword spotting process and classification experiments results.
Machine recognition of human emotional states is an essential part in improving man-machine interaction. During expressive speech the voice conveys semantic message as well as the information about emotional state of the speaker. The pitch contour is one of the most significant properties of speech, which is affected by the emotional state. Therefore pitch features have been commonly used in systems for automatic emotion detection. In this work different intensities of emotions and their influence on pitch features have been studied. This understanding is important to develop such a system. Intensities of emotions are presented on Plutchik's cone-shaped 3D model. The k Nearest Neighbor algorithm has been used for classification. The classification has been divided into two parts. First, the primary emotion has been detected, then its intensity has been specified. The results show that the recognition accuracy of the system is over 50% for primary emotions, and over 70% for its intensities.
Artykuł prezentuje zagadnienie związane z rozpoznawaniem stanów emocjonalnych na podstawie analizy sygnału mowy. Na potrzeby badań stworzona została polska baza mowy spontanicznej, zawierająca wypowiedzi kilkudziesięciu osób, w różnym wieku i różnej płci. Na podstawie analizy sygnału mowy stworzono przestrzeń cech. Klasyfikację stanowi multimodalny mechanizm rozpoznawania, oparty na algorytmie kNN. Średnia poprawność: rozpoznawania wynosi 83%.
EN
The article presents the issue of emotion recognition from a speech signal. For this study, a Polish spontaneous database, containing speech from people of different age and gender, was created. Features were determined from the speech signal. The process of recognition was based on multimodal classification, related to kNN algorithm. The average of accuracy performance was up to 83%.
Głównym tematem artykułu jest stworzenie automatycznej komunikacji między dwoma bliźniaczymi bazami danych, dzięki której na obu bazach są wykonywane te same zapytania dotyczące zarówno modyfikacji danych w istniejącej strukturze relacyjnej, jaki i zmiany strukturalne bazy. Takie podejście stanowi rozszerzenie funkcjonalności replikacji, która pozwala jedynie na synchronizacje ściśle określonych danych. Omawiana praca skupia się na technicznej stronie problemu, stworzeniu pełnej struktury usługi Service Broker (kolejki, trasy, serwisy), nawiązaniu konwersacji między bazami, przetwarzaniu komunikatów. Omawiana funkcjonalność została uzyskana na skutek działania zestawu procedur wyzwalanych utworzonych dla schematu bazy danych, które automatycznie tworzą wyzwalacze poziomu pośredniego odpowiedzialne za synchronizacje danych. Przedstawiono również aplikacje zewnętrzną służąca do śledzenia komunikatów generowanych przez wyzwalacze oraz zaprezentowania wykonanych zmian. Jej zadaniem jest również przekierowanie przetwarzania do mniej obciążonej bazy, w celu poprawy wydajności przetwarzania.
EN
The main topic of the article is an automatic communication between two twin databases, so that both databases are performed the same question concerning both the modification of data in the existing structure and of relational structure changes. This approach extends the functionality of replication, which allows only for the synchronization of specific data. This work focuses on the technical side of the issue, the creation of the full structure of the Service Broker service (queue, endpoints, services), a conversation between databases, processing messages. This functionality has been obtained by the action of a set of procedures, triggers are created for the database schema, which automatically create triggers the intermediate responsible for synchronization of data. Are also external applications used to track messages that are generated by the triggers and present made changes. Its task is also a redirect to a less biased processing base, in order to improve the efficiency of processing.
Artykuł opisuje zastosowanie sieci językowych w reprezentacji dokumentów tekstowych. Przedstawia dwa modele reprezentacji: statystyczny oraz z wykorzystaniem sieci językowych. Opiera się na przeprowadzonej analizie literaturowej, której celem było poszukiwanie wydajnej metody reprezentacji dokumentów, mającej służyć do dalszych badań w dziedzinie wyszukiwania dokumentów tekstowych na podstawie rzeczywistych treści.
EN
The article propels the problem of building the model of continuous texts representation. It presents mechanisms of weights assignment to the individual document features based on statistical analysis and text networks. The review on document representation is the first step to investigation into searching documents.
Artykuł dotyczy metody implementacji parsera pliku DICOM z wykorzystaniem języka T-SQL na platformie SQL Server 2008. Protokół DICOM – Digital Imaging and Communications in Medicine (Obrazowanie Cyfrowe i Wymiana Obrazów w Medycynie) – jest normą opracowaną przez ACR/NEMA (American College of Radiology/National Electrical Manufacturers Association) dla potrzeb ujednolicenia, wymiany [3] i interpretacji danych medycznych [9], reprezentujących lub związanych z obrazami diagnostycznymi w medycynie. Znajduje on zastosowanie przy przetwarzaniu cyfrowo zapisanych danych z urządzeń diagnostycznych [6], takich jak: tomograf komputerowy, pozytronowy tomograf emisyjny, ultrasonograf. Aktualnie implementowana jest trzecia wersja standardu, która została po raz pierwszy ogłoszona w 1992 roku i od tego czasu jest ciągle aktualizowana. Praca opisuje notację stosowaną w tym formacie. W zasadniczej części przedstawiono dwie metody dekompozycji plików do schematu relacyjnego z zastosowaniem rozszerzenia proceduralnego oraz omówiono ich wydajność.
EN
This article applies the method of implementing DICOM parser file using T-SQL in SQL Server 2008. DICOM Protocol – Digital Imaging and Communications in Medicine (Digital Imaging and Exchange of Images in Medicine) is a standard developed by the ACR / NEMA (American College of Radiology / National Electrical Manufacturers Association) for the unification, exchange [3] and interpretation [9] of medical data representing or associated with diagnostic images in medicine. It is used in the processing of digitally stored data from diagnostic devices [6] such as a computer tomography, positron emission tomography, and diagnostic sonography. Currently implemented is the third version of the standard, which was announced for the first time in 1992 and since that time is constantly being updated. Work describes notation used in this format. In the principle part two methods of decomposition of files to relational schema using procedural extension was introduced and discus their efficiency.
Przedmiotem niniejszego artykułu jest pozyskiwanie nieprecyzyjnych informacji z bazy danych przy wykorzystaniu autorskiego algorytmu etykietowania, wykorzystującego metody sztucznej inteligencji. Za pomocą rozmytych algorytmów grupowania i automatycznego generowania funkcji przynależności analizowane są statystyki ruchu na witrynie WWW. Zastosowanie algorytmu etykietowania pozwoliło na uzyskanie odpowiedzi na zapytanie sformułowane w metajęzyku naturalnym.
EN
This paper presents a novel idea of gaining imprecise information from relational database systems. Concernment of investigation rise fact that such kind of processing is not supported by any commercial database system. These researches illustrate a combination of database technology and fuzzy logic. The final aim is to develop a fuzzy querying system based on meta-natural language.
Przedmiotem badań jest pozyskiwanie nieprecyzyjnych informacji z relacyjnych baz danych. Wagę problematyki badań podnosi fakt, iż takie podejście nie jest wspierane przez żaden komercyjny system zarządzania bazami danych. Prezentowane rozwiązanie stanowi nowatorskie podejście w tej dziedzinie, oparte na automatycznym generowaniu funkcji przynależności i przetwarzaniu zapytań w bezkontekstowym metajęzyku.
EN
This paper presents a novel idea of gaining imprecise information from relational database systems. Concernment of investigation rise fact that such kind of processing is not supported by any commercial database system. These researches illustrate a combination of database technology and fuzzy logic. The final aim is to develop a fuzzy querying system based on meta-natural language.
W rozdziale tym przedstawiono projekt systemu automatycznego etykietowania nagrań dźwiękowych. System oparto na algorytmach nieliniowej transformacji czasu DTW, operującej na współczynnikach mel-cepstralnych i human-cepstralnych. Mechanizm automatycznego etykietowania korzystać będzie z w pełni konfigurowalnej, referencyjnej bazy nagrań oraz mapowań znaczników. Finalnie przestawione zostały testy potwierdzające wysoką jakość zaproponowanych algorytmów.
EN
In this chapter you will be provided with description of automated audio tagging system. The system will be based on optimized Dynamic Time Warping algorithm, mel-cepstral coefficients MFCC and human-cepstral coefficients HFCC. In addition the tagging process will be based on fully configurable reference audio database with mapping tags. Introduced tests results of proposed algorithms confirm their high-quality.
20
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
This article describes Query by Voice Example speaker independent sound similarity system based on Dynamic Time Warping (DTW) classifier. DTW is an algorithm that finds the optimal alignment between two time series. It is commonly used to determine time series similarity and corresponding regions finding between two time series. Those features enable this algorithm to be used in combination with MFCC and HFCC coefficients.
PL
Poniższy artykuł opisuje system wyszukiwania podobieństwa danych audio Query by Voice Example oparty o klasyfikator nieliniowej transformacji czasu DTW. Algorytm DTW sprawdza dopasowanie dwóch ciągów. Częstym jego zastosowaniem jest wyszukiwania podobieństwa między seriami czasowymi. Dzięki tym cechom możliwe jest zastosowanie tego algorytmu w połączeniu z współczynnikami MFCC i HFCC.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.