W artykule przedstawiono analizę porównawcząwydajności pracy z bazami danych MySQL i PostgreSQL, z wykorzystaniem popularnych szkieletów programistycznych Spring (Java) i Symfony. Badania przeprowadzono z wykorzystaniem autorskich aplikacji testowych, realizujących operacje typu CRUD na różnej liczbie rekordów. Wyniki testów wykazały, że czas wykonywania operacji zapisu i usuwania danych przy użyciu aplikacji Spring jest dłuższy niż przy wykonywaniu tych analogicznych operacji w Symfony. Natomiast w przypadku operacji UPDATE i SELECT, czas wykonywania operacji za pomocą aplikacji Spring okazał się krótszy niż w przypadku Symfony. Wyniki testów dowiodły, że niezależnie od szkieletu programistycznego MySQL jest mniej wydajny w stosunku do PostgreSQL przy wykonywaniu poleceń na dużej liczbie (10 000) rekordów dla wszystkich operacji poza operacją DELETE, gdzie MySQL z Symfony jest najszybszy.
EN
The article presents a comparative analysis of the efficiency of work with MySQL and PostgreSQL databases, using the popular Spring (Java) and Symfony programming frameworks. The research was carried out with the use of proprietary test applications that perform CRUD operations on a different number of records. The test results showed that the execution time of writing and deleting data using the Spring application is longer than when performing the same operations in Symfony. On the other hand, in the case of UPDATE and SELECT operations, the operation execution time with the Spring application turned out to be shorter than in the case of Symfony. The test results also confirmed that, regardless of the development framework, MySQL is less efficient than PostgreSQL while operating on 10 000 records except for DELETE, where MySQL combined with Symfony is the fastest.
We współczesnych aplikacjach, bazy danych pełnią bardzo ważną rolę, jednak wybór systemu bazodanowego i dodatkowych bibliotek może wpływać na szybkość wykonywania operacji. W niniejszej pracy przedstawiono czasową analizę dotyczącą wykonywania operacji bazodanowych insert, update, delete i select dla trzech systemów baz danych MySQL 8.0, PostgreSQL 14.1 i Oracle 21c, współpracujących z aplikacją wykorzystującą biblioteki Doctrine. Badania wykazały różnice między wykonywaniem operacji wraz z mapowaniem obiektowo-relacyjnym, a wykonywaniem sa-mych zapytań. Przy współpracy z aplikacją, operacje najszybciej przeprowadzono korzystając z systemu PostgreSQL. System Oracle szybciej wykonywał operacje pobierania danych bez udziału mapowania na dużym zbiorze danych.
EN
In modern applications, databases perform a very important function but the choice of a database system and additional libraries may affect the speed of the operations. The paper presents a time analysis concerning the performing of insert, update, delete and select operations on three database systems, MySQL 8.0, PostgreSQL 14.1 and Oracle 21c, cooperating with an application using Doctrine libraries. The obtained results showed differences between performing operations with and without object-relational mapping. In cooperation with the application, the operations were carried out the fastest using the PostgreSQL system. The Oracle system performed data selection faster without mapping on a large data set.
Celem niniejszej pracy było porównanie wydajności relacyjnych systemów zarządzania bazami danych PostgreSQLi MySQL. Na potrzeby tego badania została zaprojektowana baza danych oraz opracowano i zaimplementowano oprogramowanie mające łączyć aplikację desktopową z poszczególnymi systemami baz danych. Oprogramowanie to marównież tworzyć encje oraz relacje między nimi w wybranych pustych schematach na bazy na serwerach. Zaimplementowano także aplikację desktopowa w języku programowania Java, pozwalającą na przeglądanie zapisanych danychw bazie oraz przeprowadzenie testów wydajności bazy. Testy dotyczyły podstawowych operacji dodawania, pobrania, aktualizacji i usuwania danych. W pracy postawiono hipotezę ”PostgreSQLjest bardziej wydajny dla aplikacji desktopowych podczas małego obciążenia danymi, czyli do 1000 zapytań”, która została potwierdzona wynikami uzyskanymiz przeprowadzonych badań.
EN
The aim of this thesis was to compare the performance of two relational database management systems PostgreSQL and MySQL. For the purpose of the study a relational database was designed and a piece of software was implemented to connect desktop application with the database system. This software shall also create entities and relations between them in desired empty schemes on servers for databases. There has also been implemented a desktop application in Java programming language, that allows browsing data stored in database and performing the tests of database performance. Tests addressed basic operations of adding, collecting, updating and deleting data. Thisthesis makes a hypothesis ”PostgreSQL is more efficient for desktop application while loaded with small data, in that case 1000 of queries”, that was confirmed by achieved results from tests performed.
4
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Data Consistency defines the validity of a data set according to some set of rules, and different levels of data consistency have been proposed. Causal consistency is the strongest type of consistency possible when data is stored in multiple locations, and fault tolerance is desired. Thespis is a middleware that leverages the Actor model to implement causal consistency over a DBMS, whilst abstracting complexities for application developers behind a REST interface. ThespisTRX is an extension that provides read-only transaction capabilities, whilst ThespisDIIP is another extension that handles distributed integrity invariant preservation. Here, we analyse standard transactional workloads on the relational data model, which is richer than the key-value data model supported by the Thespis interface. We show the applicability of the Thespis approach for this data model by designing new operations for the Thespis interface, which ensure correct execution of such workloads in a convergent, causally consistent distributed environment.
The paper presents the problem of material requirements planning with optimization of load distribution between work centers and workers’ groups. Moreover, it discusses the computational example for shop orders optimization. The data for this example were taken from the relational database. The method of Constraint Logic Programming (CLP) for shop orders optimization has been suggested. Using Constraint Logic Programming, the constraints may be directly introduced to the problem declaration, which is equivalent to the source code of the program. The ECLiPSe-CLP software system has been presented. It allows for solving optimization problems concerning dimensions greater than in the case of the professional mathematical programming solver “LINGO”. The application of ECLiPSe-CLP in accessing data from relational databases has been presented.
6
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Knowledge represented in the semantic network, especially in the Semantic Web, can be expressed in attributive language AL. Expressions of this language are interpreted in different theories of information granules: set theory, probability theory, possible data sets in the evidence systems, shadowed sets, fuzzy sets or rough sets. In order to unify the interpretations of expressions for different theories, it is assumed that expressions of the AL language can be interpreted in a chosen relational system called a granule system. In this paper, it is proposed to use information granule database and it is also demonstrated that this database can be induced by the measurement system of the adequacy of information retrieval, called a perceptual system. It can simplify previous formal description of the information granule system significantly. This paper also shows some examples of inducing rough and fuzzy granule databases by some perceptual systems.
The aim of this research is to build an open schema model for a digital sources repository in a relational database. This required us to develop a few advanced techniques. One of them was to keep and maintain a hierarchical data structure pushed into the repository. A second was to create constraints on any hierarchical level that allows for the enforcement of data integrity and consistency. The created solution is mainly based on a JSON file as a native column type, which was designed for holding open schema documents. In this paper, we present a model for any repository that uses hierarchical dynamic data. Additionally, we include a structure for normalizing the input and description for the data in order to keep all of the model assumptions. We compared our solution with a well-known open schema model – Entity-Attribute-Value – in the scope of saving data and querying about relationships and contents from the structure. The results show that we achieved improvements in both the performance and disk space usage, as we extended our model with a few new features that the previous model does not include. The techniques developed in this research can be applied in every domain where hierarchical dynamic data is required, as demonstrated by the digital book repository that we have presented.
This paper presents a novel method for data analysis and visualization, including real-time visual monitoring and proposal for combined area PQ indices on the example of the developed and operational comprehensive system of registration, archiving and data processing for the wide-area monitoring of power quality in a separated part of real power grid with distributed renewable generation. Real case studies related to power quality disturbances are presented.
9
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Information granulation is a powerful tool for data analysis and processing. However, not much attention has been devoted to application of this tool to data stored in a relational structure. This paper extends the notion of information granules to a relational case. Two information systems intended to store relational data are proposed. This study also extends a granule description language to express information granules derived from relational data. The proposed approach enables to analyze a given problem at different levels of granularity of relational data. This can find application in searching for patterns in data mining.
Artykuł ma na celu przedstawienie jednej z koncepcji przyśpieszenia procesu wyboru danych. Indeksy są nieod- łącznym elementem projektowania relacyjnych baz danych. Różnorodność typów może jednak sprawiać problem, który z nich w danej sytuacji należy wybrać. Prezentowane badania mogą być pewnego rodzaju wskazówką. Na szybkość dostępu do danych ma wpływ wiele czynników, między innymi: liczba wierszy tabel odpowiadających warunkowi złączenia, częstotliwość występowania kolumn w warunkach zapytań i selektywność kolumn. Decyzja o użyciu określonego indeksu wymaga umiejętnego analizowania zestawu zapytań trafiających do bazy danych i doświadczenia praktycznego
EN
The purpose of this paper is to present the concept of acceleration of selection process data.. Indexes are integral part of a relational database. However, the variety of types might cause a problem, which type should be used. Our study might be some kind of clue. The speed of an access to data is influenced by many factors for instance: cardinality of table, the frequency of columns in the query conditions and selectivity columns. Decision of using a particular type of index requires a thoughtful analysis of queries as well as practical experience in data base.
Artykuł opisuje główne założenia bazodanowego systemu informatycznego do ewidencjonowania porad eksperckich udzielanych telefonicznie. Przedstawione zostały zadania postawione przed systemem, a także architektura obejmująca zarówno warstwę sprzętową – łącza i centrale telefoniczne, schemat sieci z serwerem i terminalami konsultantów oraz koordynatora, jak i warstwę aplikacji – z opisem podstawowych funkcji systemu. Przedstawiono graficznie oraz krótko opisano również relacje między tabelami w głównej bazie danych. Opisywany system został opracowany dla przedsiębiorstwa, udzielającego telefonicznych porad i informacji dla kierowców oraz właścicieli pojazdów. Przedsiębiorca dzięki systemowi uzyskał możliwość lepszego zarządzania czasem pracy konsultantów, monitorowania jakości udzielanych przez nich porad, a także dzięki rozbudowanemu systemowi statystyk i raportowania, a także bezpośredniemu dostępowi konsultantów do odpowiedzi na najczęściej poruszane sprawy, udało się zoptymalizować koszty prowadzenia usługi.
EN
The article describes the main objectives of database system a register of the expert advice provided by telephone. It has been shown tasks for the system and architecture - hardware - links and telephone, network diagram with server and consultant and coordinator terminals. It also shows the software functions. The paper presents graphically and briefly describes the relationships between the tables in the master database. This system was developed for the company, providing telephone advice to drivers and vehicle owners. Entrepreneur gained an opportunity to better time management consultants, monitoring the quality of advice given by them, and through extended system of statistics and reporting, managed to optimize the costs of running the service.
This paper presents implementations of a few selected SQL operations using the CUDA programming framework on the GPU platform. Nowadays, the GPU’s parallel architectures give a high speed-up on certain problems. Therefore, the number of non-graphical problems that can be run and sped-up on the GPU still increases. Especially, there has been a lot of research in data mining on GPUs. In many cases it proves the advantage of offloading processing from the CPU to the GPU. At the beginning of our project we chose the set of SELECT WHERE and SELECT JOIN instructions as the most common operations used in databases. We parallelized these SQL operations using three main mechanisms in CUDA: thread group hierarchy, shared memories, and barrier synchronization. Our results show that the implemented highly parallel SELECT WHERE and SELECT JOIN operations on the GPU platform can be significantly faster than the sequential one in a database system run on the CPU.
Skuteczność i efektywność informatycznego wspomagania przedsięwzięć inżynieryjnych może być w znacznej mierze uzależniona od właściwej reprezentacji danych bądź wiedzy i możliwości przetwarzania dostępnych zasobów informacyjnych. Wykorzystywane powszechnie do informatycznego wspomagania przedsięwzięć informacyjno-decyzyjnych klasyczne systemy baz danych i coraz częściej, systemy z bazami wiedzy nie umożliwiają odzwierciedlania powszechnie występującej w przedsięwzięciach inżynieryjnych niepewności, czy niejednoznaczności zasobów informacyjnych. Poszukiwanie rozwiązań informatycznych będących w stanie przetwarzać dane przybliżone skłania do rozpatrzenia możliwości wykorzystania logiki wielowartościowej, a w szczególności logiki rozmytej w modelowaniu danych oraz wiedzy, jak również w procesach przetwarzania zasobów informacyjnych. Dotychczasowy brak rozwiązań w zakresie wykorzystania rozmytych baz danych oraz rozmytych baz wiedzy w obszarze przedsięwzięć inżynieryjnych stanowi przesłankę do podjęcia próby oceny możliwości zastosowania tych technologii do wspomagania procesów informacyjno-decyzyjnych oraz związanych z tym ograniczeń.
EN
The IT tools that are widely used for aiding information and decisionmaking tasks in engineering activities include classic database systems, and in the case of problems with poorly-recognised structure – systems with knowledge bases. The uniqueness of these categories of systems allows, however, neither to represent the approximate or imprecise nature of available data or knowledge nor to process fuzzy data. Since so far there have been no solutions related to the use of fuzzy databases or fuzzy knowledge bases in engineering projects, it seems necessary to make an attempt to assess the possible employment of these technologies to aid analytical and decision-making processes.
W pracy przedstawiono koncepcji hierarchicznego modelu struktury przestrzennej magazynu. Model ten wykorzystano w prostym systemie wspomagającym wyszukiwanie miejsc składowania poszczególnych produktów. Omówiono sposób budowy takiego systemu jako aplikacji relacyjnej bazy danych, jako arkusza kalkulacyjnego i jako projektu programu TreeLine. Szczególną uwagę zwrócono na techniki pozwalające na transfer danych źródłowych do wersji systemu zbudowanej według innej koncepcji przechowywania danych, ale korzystającej z tego samego modelu magazynu. Techniki omówione w pracy mogą być przydatne także w innych przypadkach zarządzania zasobami informacji o strukturze hierachicznej.
EN
The concept of hierarchical model of spatial structure of a warehouse was presented in the paper. That model was been implemented in simple computer systems supporting searching out locations of particular products in the store. These systems was developed as a relational database application, as a worksheet and as the TreeLine program project. Particular attention was paid to techniques of the source data transfer between versions of the system developed according to different data storage concepts, but applying the same warehouse model. Techniques described in the paper can be useful also in other problems concerning managing hierarchically ordered information resources.
The 1 to 1 relationships of charts of accounts, accounting journals and tables of accounting records with corresponding tables of accounts, business transactions and transactional records in the framework EPC II system have been presented in the paper. These tables are the main information kinds, that is tables in which one can write down all information needed for management and business process control in any enterprise, or they are composed of them. In this way it has been shown that the Theory of Enterprise Process Control is compatible with generally accepted accounting principles. This analysis is an example of demonstrating conformity of the EPC II theory with real management and process control systems. The main information kinds with their key attributes were taken from the complete list of them, which is included in the paper. What is more, the tight relationships between resource flow in business processes and turnover on the accounts of the framework EPC II system have been discussed. Owing to these relationships one can determine the impact of any decision variable on the accounting records in a given enterprise.
Currently, the majority of the existing IT systems and those that are under development are based on applications that work with database servers. The ever wider range of functionalities that such servers are able to provide results in an increase in the number of their users and in the amount of data processing. This leads to performance problems. Such problems are addressed through both programming and hardware solutions. In terms of programmatic solutions the authors' interest is focused on table structures in RDBMS's and their performance in terms of write operations on data. So far analyses have been conducted relating to the impact of the presence of a primary key and the way it is generated on data write operations in a sample of relational databases.
PL
Aktualnie większość istniejących i tworzonych systemów informatycznych to aplikacje współpracujące z serwerami bazodanowymi. Oferowana przez nie coraz szersza gama funkcjonalności skutkuje zarówno wzrostem liczby użytkowników, jak i przetwarzanych danych. Powoduje to pojawienie się problemów z wydajnością. Rozwiązywane są one zarówno poprzez działania programistyczne, jak i sprzętowe. Przedmiotem zainteresowania autorów z obszaru działań programistycznych stała się definicja (struktura) samej tabeli w RDBMS z perspektywy wydajności zapisu danych. Dotychczas przeanalizowano wpływ klucza podstawowego i sposobu jego generowania na zapis danych w przykładowo wybranych bazach relacyjnych.
17
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
In the paper the basic concepts of the theory of Enterprise Process Control (EPC II), as well as its most important results and directions of future work, have been discussed. It has been shown that in the synthetic picture of EPC II data structure every structural attribute of information elements may be assigned to one of the three general dimensions: knowledge on kinds of processes and resources, enterprise organization and labels of executions of definite business processes. Differences in concepts of business processes, resources and organizational units between the EPC II theory and the current standards have been pointed out. It has been demonstrated that the framework functional structure of integrated management systems is the same for every organizational level. The notions of business transactions have been introduced and then relationships between functional activities and business transactions have been described. Next, the relationships of bookkeeping accounts, entries and transactions with corresponding notions of the EPC II theory have been discussed. It has been shown how the EPC II theory may be applied to solving certain difficult problems of business process control, including the problem of building a universal framework system of management and process control and the problem of automatic adaptation of management systems software to structural changes of business processes.
18
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The framework Enterprise Process Control system is a system with a relational database. Those of its tables which are not subclasses of other tables have been named "administrative information kinds". Their rows and their key attributes are called "information elements" and "structural attributes". The list of all structural attributes, as well as the list of all administrative information kinds together with their key attributes, have been presented in the paper. According to the thesis of universality of the framework EPC II system for each table of each real integrated management system there is a specialization relationship with one of information kinds belonging to this list or with a table of natural join of certain information kinds or with a projection of such a join on its selected columns. Therefore the number 25 of all structural attributes and the number 140 of all administrative information kinds seem to be relatively small. The list of information kinds has been discussed in parts corresponding to structural knowledge of enterprise resources and processes, to information places which are sets of information elements, to the structure of business process control systems, to batches and specimens of resources, to transitions, transactions and state of EPC II systems, to periodic plans and reports of enterprise activities and, finally, to orders of these activities.
Przedmiotem wykładu jest wykorzystanie dokumentów XML w relacyjnych bazach danych. W pierwszej części wykładu zaprezentowana zostanie krótka historia standardu XML i podstawowe zasady tworzenia dokumentów XML. Wprowadzenie w MS SQL Server 2005 typu danych XML udostępniło nowe możliwości projektowania i implementacji baz danych. Metody typu XML pozwalają na realizację zapytań w języku SQL wykorzystujących jednocześnie dane relacyjne i dane zapisane w dokumentach XML. Możliwość definiowania schematów XSD umożliwia rozwiązanie problemów walidacji danych zapisanych w dokumentach XML na poziomie mechanizmów bazy danych.
EN
The subject of the lecture is the use of XML documents in relational databases. In the first part of the lecture a brief history of XML standard and basic rules for creating XML documents will be presented. The introduction of XML data type in MS SQL Server 2005 has made new possibilities accessible for database design and implementation. XML type methods allow the execution of SQL queries simultaneously using relational data and data saved as XML documents. The feature of XSD schemas defining enables solving problems of the validation of data saved as XML documents at the level of the database engine.
Bazy relacyjne coraz częściej zawierają dane, które nie pasują do koncepcji relacyjności. Decydując się na implementację w swych produktach tych nierelacyjnych typów danych producenci systemów zarządzania bazami danych kierują się głównie chęcią skrócenia i uproszczenia procesów tworzenia aplikacji wykorzystujących bazy danych. Niniejszy artykuł wprowadza w tematykę danych przestrzennych dostępnych w systemie Microsoft SQL Server 2008 R2. Owe typy danych stanowią doskonały przykład implementacji nierelacyjnych typów danych w relacyjnych bazach danych.
EN
Today the relational databases contain data that do not fit the relational concept more often than several years ago. By implementation of non-relational data types in their products manufacturers of database management systems wish to shorten and simplify the application development processes. This article introduces the spatial data types available in Microsoft SQL Server 2008 R2. These data types are an excellent example of the implementation of non-relational data types in relational databases.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.