Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 17

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Field-programmable gate arrays (FPGA) technology can offer significantly higher performance at much lower power consumption than is available from single and multicore CPUs and GPUs (graphics processing unit) in many computational problems. Unfortunately, the pure programming for FPGA using hardware description languages (HDL), like VHDL or Verilog, is a difficult and not-trivial task and is not intuitive for C/C++/Java programmers. To bring the gap between programming effectiveness and difficulty, the high level synthesis (HLS) approach is promoted by main FPGA vendors. Nowadays, time-intensive calculations are mainly performed on GPU/CPU architectures, but can also be successfully performed using HLS approach. In the paper we implement a bandwidth selection algorithm for kernel density estimation (KDE) using HLS and show techniques which were used to optimize the final FPGA implementation. We are also going to show that FPGA speedups, comparing to highly optimized CPU and GPU implementations, are quite substantial. Moreover, power consumption for FPGA devices is usually much less than typical power consumption of the present CPUs and GPUs.
EN
The Probability Density Function (PDF) is a key concept in statistics. Constructing the most adequate PDF from the observed data is still an important and interesting scientific problem, especially for large datasets. PDFs are often estimated using nonparametric data-driven methods. One of the most popular nonparametric method is the Kernel Density Estimator (KDE). However, a very serious drawback of using KDEs is the large number of calculations required to compute them, especially to find the optimal bandwidth parameter. In this paper we investigate the possibility of utilizing Graphics Processing Units (GPUs) to accelerate the finding of the bandwidth. The contribution of this paper is threefold: (a) we propose algorithmic optimization to one of bandwidth finding algorithms, (b) we propose efficient GPU versions of three bandwidth finding algorithms and (c) we experimentally compare three of our GPU implementations with the ones which utilize only CPUs. Our experiments show orders of magnitude improvements over CPU implementations of classical algorithms.
PL
Duża liczba zwracanych (na przykład przez różnego rodzaju wyszukiwarki internetowe) dokumentów oznacza, że często zmuszeni jesteśmy do czasochłonnego ich przeglądania, celem weryfikacji trafności zwracanych wyników. Gdy dokumenty są długie, czas ich przeglądania znacznie się wydłuża. Można by go wydatnie skrócić, gdyby istniała możliwość automatycznego generowania sensownych podsumowań (streszczeń). W artykule omawiamy wybrane algebraiczne metody służące automatycznemu wydobywaniu z tekstu jego najistotniejszych słów kluczowych oraz najistotniejszych zdań.
EN
Text summarization is a real practical problem due to explosion of the volume of textual information available nowadays. In order to solve this problem, text summarization systems which extract brief information from a given text are created. The end user, by looking only at the summary, may decide whether the document is or is not of interest to him/her. Built summaries can have 2 fundamental forms. Firstly, extractive summarization may collect important sentences from the input text to constitute the summary. Secondly, abstractive summarization tries to capture main concepts of the text and then some new sentences, summarizing the input text, are generated. Nowadays, however, it seems that the latter approach still needs extensive works to be really useful. A summary can be extracted from a single document or multiple documents. In the paper the authors build summaries of one document only. The extension into multi-document summaries is the straightforward task in the case when a set of semantically uniform texts is summarized. Summaries may also be categorized as generic and query-based summaries. In the first case, there are generated summaries con-taining main topics of a document. In the second case, summaries contain the sentences that are related to the given queries. In the paper there are built generic summaries. Summarization systems use different approaches to determine important sentences. Here there is used semantic oriented approach based on a method known as Latent Semantic Analysis (LSA). LSA is an algebraic method that extracts meaning of words and similarity of sentences using the information about usage of the words in the context. It uses Singular Value Decomposition (SVD) for finding semantically similar words and sentences. Using the results of SVD the authors try to select best sentences (which constitute the best summary of the text). The paper is organized as follows. In Section 2 there is formulated the problem. In Section 3 there is shown how a docu-ment may be represented in a useful algebraic format. The so called Term-Sentence matrix (TSM) is used. The authors also point at some preliminary tasks necessary to be performed for successful further analysis. In Subsection 3.2 there is shortly presented an idea of LSA as based on SVD decomposition. In the last section 4 two examples of text summarizations build for both Polish and English texts are given. The two methods used differ slightly from each other. The authors' extracting key words and key sentences seems to be proper content-related summaries of the input texts.
EN
The paper concerns nonparametric estimation of probability density functions (PDF). We demonstrate how one can use PDFs for easy and smart analysis of opinion polls data. Authors use PGSS dataset (Polish General Opinion Poll) made freely available in ADS [11] library. PGSS contains data collected during a large number of opinion polls carried out between 1992 and 2008. It contains answers for 1640 different questions asked to 16234 different citizens. From PGSS dataset we extracted data about Polish Presidential Elections held in 1990, 1995, 2000 and 2005. We analyze the support given to different candidates, as well as the fact of participation or not participation in the Elections as the function of citizens’ age. Based on PDF plots we try to describe political preferences of Poles.
PL
W pracy w wielkim skrócie przedstawiono możliwości, jakie daje SQL Server 2008 firmy Microsoft w obszarze tworzenia systemów klasy BI. Wykorzystano je w firmie LUMEL S.A. do wykonania pilotażowego prostego systemu demonstrującego jego najważniejsze cechy. Autorzy artykułu liczą, że wykonana praca będzie miała „ciąg dalszy” i uda się stworzyć finalny system BI, który da wymierne korzyści dla firmy LUMEL S.A., zakończy się wdrożeniem i będzie pozytywnym przykładem współpracy przemysłu i nauki.
EN
This paper presents the main components of Microsoft’s SQL Server 2008 RDBMS system which constitute a complete IT platform for delivering the so called business services. We show an example of using this technology applied for real data taken from an Enterprise Resource Planning (ERP) system. This work was carried out while the first author’s 3 month long practical training taken place in LUMEL S.A., Zielona Góra, Poland. The training was the part of European Union project entitled “Let’s do it together”.
PL
W przypadku występowania niestacjonarności składników błędów losowych zastosowanie niewłaściwej metody estymacji parametrów modelu regresji prowadzi do zawyżenia błędów standardowych estymatorów. W przypadku występowania autokorelacji błędów losowych, zastosowanie niewłaściwej metody prowadzi do niedoszacowania wartości tych błędów. Ponadto otrzymywane reszty nie oddają charakteru rzeczywistego zakłócenia. W obu przypadkach skutkuje to błędnymi oszacowaniami błedów standardowych estymatorów a w konsekwencji też i przedziałów ufnosci parametrów równań regresji. W praktyce często trudno jest precyzyjnie okreslić stopień oraz charakter autokorelacji błędów oraz niestacjonarności składników błędów losowych. Można to jednak zrobić z pewnym przybliżeniem, co i tak w efekcie pozwala dokonywać bardziej wiarygodnych oszacowań. W pracy zakłada się, że posiadane dane opisują obiekt statyczny (lub obiekt dynamiczny, ale w ustalonym punkcie pracy). Podobne zjawiska mogą również wystapić w obiektach dynamicznych, w których dynamika jest w odpowiedni sposób modelowana (w modelach takich obiektów wystepować będą odpowiednio opóźnione zmienne objaśniane i/lub objaśniające). Zagadnienie poprawnej estymacji parametrów takich modeli oraz ich błedów standardowych może być interesującym problemem badawczym.
EN
In the paper we consider regression models where some of the classical assumptions are not satisfied (are violated). We show how autocorrelation and heteroscedasticity of random errors influence the final regression model. Moreover we show how to properly estimate parameters of regression models when classical assumptions are not satisfied. We also demonstrate an influence of not considering of these features on the quality of final models. We perform some numerical simulations using both artificial and real data sets.
7
Content available remote Probability Density Functions for Calculating Approximate Aggregates
EN
In the paper we show how one can use probability density function (PDF) for calculating approximate aggregates. The aggregates can be obtained very quickly and efficiently and there is no need to look through the large amount of data, as well as creating a sort of materialized aggregates (usually implemented as materialized views). Although the final results are only approximate, the method is extremely fast and can be successively used during initial phase of data exploration. We include simple experimental results which proof effectiveness of the method, especially if PDFs are typical, for example similar to Gaussian normal ones. If the PDFs differ from a normal distribution, one can consider making a proper preliminary transformation of the input variables or estimate PDFs by some nonparametric methods, for example using the so called kernel estimators. The later is used in the paper. To accelerate calculations, one can consider a usage of graphics processing unit (GPU). We point out this approach in the last section of the paper and give some preliminary results which are very promising.
PL
W pracy podjęto próbę szacowania emisji tlenków azotu (NOx,) na podstawie danych eksploatacyjnych zbieranych podczas normalnej pracy Elektrociepłowni w Zielonej Górze. Pomimo że zanieczyszczenia te monitorowane są z użyciem specjalistycznych czujników, to wydaje się, że dodatkowa ich kontrola może być bardzo pożądana. Zwłaszcza, że ilość emitowanych zanieczyszczeń (w tym NOx) jest ściśle limitowana i kontrolowana. Wspomniane szacowanie wykonano wykorzystując technikę statystyczną zwaną regresją liniową.
EN
In the paper there is analysed the possibility of estimating nitrogen oxides NOx emissions based on the data taken from an industry plant (gas-based combined heat and power (CHP) plant in Zielona Góra, Poland). Even though the emission of NOx is monitored on-line by dedicated sensors installed on the plant, we believe that some additional monitoring would be desirable. This is especially important because emission of different kind of air-pollutants (including NOx) is strictly limited and monitored. The above mentioned estimation is performed by the statistical technique known as linear regression. In Section 2 the gas-based combined heat and power plant in Zielona Góra is briefly described. A simplified chart of the plant is shown in Fig. 1. The list of measurement points taken from the DCS system (distributed control system) of the greatest influence on the NOx emission is also given. In Section 3 there is shown the way how the raw data should be prepared, especially in the context of removing unwanted disturbances as well as the points which were selected for the final regression analysis. The results obtained are presented in Section 4. The best regression solution (row 3 in Table 3) is shown in Fig. 4. The accuracy is quite satisfactory and we believe that it is sufficient for the purpose of additional monitoring the main NOx sensors installed on the plant.
PL
W pracy pokazano przykład użycia nieparametrycznej estymacji danych. Z pomocą tej techniki dokonano oszacowania emisji tlenków azotu (NOx) na podstawie danych eksploatacyjnych zbieranych podczas normalnej pracy Elektrociepłowni w Zielonej Górze. Na wstępnie dokonano krótkiego przeglądu najbardziej popularnych technik estymacji parametrycznej i porównano je z technikami nieparametrycznymi. Następnie na prostym przykładzie pokazano istotę działania estymacji nieparametrycznej. Pracę kończy rozdział, w którym krótko omówiono uzyskane wyniki symulacyjne.
EN
In the paper there are shown some practical examples of using nonparametric estimation. Using this technique there were estimated the nitrogen oxides (NOx) emissions based on the data taken from a real industry plant (gas and steam combined heat and power (CHP) plant in Zielona Góra, Poland). This work can be treated as a continuation of the paper [2]. In the first section there is given a short overview of estimation methods, including the linear and nonlinear regression, and comparison of them with nonparametric ones. In the second section there is briefly presented the nonparametric estimation technique and there is given a simple illustrative example. The third paragraph is dedicated to presenting the experimental results. Basing on the data from the CHP plant, the NOx emission was estimated and the satisfactory results (in comparison, for example, with the results obtained from the linear regression estimator) were obtained. All calculations were carried out using np package for R-project environment which implements a variety of nonparametric (and also semiparametric) kernel-based estimators.
PL
Pokazano możliwość analizy zbioru danych numerycznych w aspekcie odkrywania niewidocznych związków pomiędzy tymi danymi. Posłużono się metodą analizy składowych głównych oraz wybranymi metodami grupowania danych. W pierwszym przykładzie przeanalizowano podobieństwo wybranych krajów UE w dziedzinie pozyskiwania przez nie energii ze źródeł odnawialnych. Posłużono się powszechnie dostępnymi danymi statystycznymi z baz Głównego Urzędu Statystycznego. W drugim przykładzie pokazano możliwość grupowania okresów zmienności notowań giełdowych. Posłużono się historycznymi (rok 1998) danymi dotyczącymi notowań wybranych indeksów giełdy amerykańskiej.
EN
In this paper we analyze some numerical data sets in order to uncover unknown or hidden relationships between them. We use principal component analysis approach as well as the hierarchical clustering method. In the first example we analyze similarities of EU countries in the field of production of energy from renewable sources. We use commonly available data from the Polish Central Statistical Office. In the second example we try to find groups of similar periods of time based on the US stock exchange. We use same historical (1998) stock exchange quotations of some selected indexes.
PL
Rozważono pewien problem z dziedziny eksploracji danych - grupowanie danych z tzw. koszyka sklepowego. Dane takie są najczęściej przedstawiane jako macierz, gdzie wiersze reprezentują poszczególne transakcje, natomiast kolumny reprezentują produkty. Macierz ta jest niemal zawsze macierzą bardzo rzadką. Przedstawiono nową metodę grupowania danych z koszyka sklepowego, wykorzystującą pewne dodatkowe informacje, zwykle przechowywane razem z danymi o koszyku sklepowym. Mimo tego, że informacje te są zwykle dostępne w praktyce, większość istniejących metod grupowania danych koszyka sklepowego ich nie wykorzystuje.
EN
In this paper we explore the problem of market-basket data clustering. Market-basket schemes are characterized by very large dimensionality and sparsity. They are organized as a matrix of transactions and items. This matrix is usually sparse because the number of totally available items is very big comparing to these included in particular transactions. Clustering of such transactions plays important role in practical applications. We devise a hierarchical method for clustering of market-basket data, which utilize taxonomy knowledge as well as some other elements typical to market-basket data (net values of particular transactions). Although a taxonomy scheme and net values are usually available in practice, most clustering methods does not take them into consideration.
12
PL
W artykule omówiono pewien specyficzny sposób reprezentacji danych, który w pewnych sytuacjach może być stosowany w miejsce klasycznego podejścia relacyjnego. Jest on stosunkowo mało znany i choć zakres jego stosowalności jest ograniczony a pewne niekorzystne właściwości znaczne, to warto go poznać, gdyż istnieją obszary, gdzie jego stosowanie może przynieść wymierne korzyści. Mowa tu o tzw. podejściu Entity-Attribute-Value, w skrócie EAV. Jest ono całkowicie różne od podejścia relacyjnego. W pracy pokazano główne założenia EAV wraz z przykładami oraz omówiono jego podstawowe zalety i wady. Krótko omówiono również pewne alternatywne rozwiązanie do EAV, które posiada niektóre cechy EAV, a jednocześnie nie burzy tak bardzo podejścia relacyjnego.
EN
In the paper a specific kind of data representation is presented. In some situations it can be used in place of classical relational approach. This data representation, although not new, is not widely known, and in spite of some serious limitations, can be used in many specific database areas. We describe the Entity-Attribute-Value (EAV) approach. This approach is totally different to the relational one. In the paper we give an overview of the EAV as well as we show the main advantages and disadvantages. Also, we show an alternative approach to EAV which does not suffer the EAV limitations.
PL
W artykule przedstawiono koncepcję systemu komputerowego wspomagającego przeprowadzanie testów wyboru z dowolnej dziedziny. System jest tak zaprojektowany, że umożliwia przeprowadzanie testów zarówno w warunkach laboratoryjnych (gdzie dostępne są komputery), jak i w typowych wieloosobowych salach wykładowych, gdzie studenci rozwiązują test w postaci tradycyjnej (papierowej). W pierwszym przypadku test można przeprowadzić praktycznie całkowicie automatycznie (poza oczywiście przygotowaniem pytań, które to zadanie z oczywistych względów nie poddaje się automatyzacji). W drugim przypadku, dzięki odpowiednim rozwiązaniom, można do minimum uprościć najbardziej czasochłonne i żmudne etapy (głównie drukowanie kart egzaminacyjnych oraz ich sprawdzanie).
EN
The article presents the concept of a computer system for carrying out test exams of any discipline. Such a system is designed to support tests in small laboratory rooms (using computers) as well as in large lecture rooms (using paper forms). In the first case tests can be carried out almost automatically (of course all questions must be prepared manually). In the second case preparing and printing exam sheets and checking answers is much easier corresponding to traditional (manual) way.
PL
W artykule przedstawiono wybrane zagadnienia dotyczące pracy z tzw. mapami cyfrowymi (ang. Digital Maps). Pokazano podstawową funkcjonalność wybranych narzędzi dedykowanych do zarządzania danymi przestrzennymi. Pokazane rozwiązania korzystają z przestrzennych rozszerzeń bazy danych dostępnych w systemie komercyjnym Oracle. Zasady gromadzenia w bazach relacyjnych danych przestrzennych oraz korzystania z nich pokazano w pierwszej części pracy "Dane przestrzenne w bazach relacyjnych. Model danych, zapytania przestrzenne".
EN
In the paper some selected aspects of working with digital maps are presented. A basic functionality of systems dedicated to management of spatial data is shown. Those systems use spatial extensions of commercially available Oracle database. Background information on spatial data in relational databases is presented in the first part of the work: "Spatial Data in Relational Databases. Data Model and Spatial Queries".
PL
W artykule przedstawiono wybrane zagadnienia dotyczące pracy z tzw. mapami cyfrowymi (ang. Digital Maps) w kontekście wykorzystania do ich obsługi specjalizowanych rozwiązań dostępnych w systemach relacyjnych baz danych. Zademonstrowano rozwiązanie oferowane przez firmę Oracle w postaci pakietu o nazwie Oracle Spatial. Przykłady użytecznych systemów zarządzających danymi przestrzennymi pokazano w drugiej części pracy "Dane przestrzenne w bazach relacyjnych. Wykorzystanie danych przestrzennych i systemy zarządzania danymi przestrzennymi".
EN
In the paper some problems related to digital maps in the context of using classical relational databases were presented. A solution called Oracle Spatial was briefly demonstrated. Some more detailed information as well as some useful solutions of systems for spatial data management was presented in the separated paper entitled "Spatial Data in Relational Databases. Using of Spatial Data and Spatial Data Management Systems".
16
Content available remote From Continuous to Discrete Models of Linear Repetitive Processes
EN
Differential linear repetitive processes are a distinct class of 2D linear systems which pose problems which cannot (except in a few very restrictive special cases) be solved by application for computer aided annalysis and simulation. One such problem area is the construction of accurate numerically well conditioned discrete approximations of the dynamics of differential processes which could, as one example of number of immediate applications areas, from the basis for digital implementation of control laws. In this paper, we undertake a detailed investigation of the critical problems which arise when attempting to construct usefull discrete approximations of the dynamics of differential linear repetitive processes and develop solutions to them. Numerical examples to support the results obtained are also given using a specially developed MATLAB based toolbox.
17
Content available remote On a New Method of Discretization of Differential Linear Repetitive Processes
EN
A new method of discretization of linear repetitive processes is proposed. In comparison to the classical methods, it posses several important advantages. First, the assumption on input and pass profile vectors to be approximated by stepwise functions is not further needed. As result, this allows using greater sampling periods for achieving the accuracy level required, which is very important especially for repetitive processes analysis. The classical methods adopted to the repetitive processes may meet serious problems with obtaining correct discretization in the case when a linear differential repetitive process is very close to its stability margin. As it is shown the proposed method, comparing to classical ones, gives better results in such situations. In the paper, the theoretical investigations are illustrated by a rich computer simulation material.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.