Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 17

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  PostgreSQL
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Database replication is a way to improve system throughput or achieve high availability. In most cases, the use of an active-active replica architecture is efficient and easy to deploy. Such a system has CP properties (from the CAP theorem: consistency, availability, and network-partition tolerance). Creating an AP (available and partition-tolerant) system requires the use of multi-primary replication. Because of the many difficulties in its implementation, this approach is not widely used; however, ALICE’s deployment of CCDB (experiment conditions and calibration database) needs to be an AP system in two locations. This necessity became the inspiration for examining the state-of-the-art methods in this field and testing the available solutions. The tests that were performed evaluated the performance of the chosen replication tools: Bucardo, and EDB Replication Server; these showed that the tested tools could be successfully used for the continuous synchronization of two independent database instances.
EN
The Automatic Identification System (AIS) device is mandatory for ships that comply with the International Convention for the Safety of Life at Sea (SOLAS). AIS is intended for vessel traffic monitoring to improve shipping safety. In the examined area, the base station received 22 128 345 messages in April 2019. Approximately 80% of these messages included position reports, which were subjected to geospatial analysis. One possible utilization of AIS messages is used in an intelligent maritime transport statistics production system called TranStat in the Gospostrateg project. This specific study compares the speed of executing geospatial queries in a relational PostgreSQL database engine and a non-relational MongoDB database engine. For the purpose of this research, we have defined four AIS datasets, four test polygons of varied number of vertices, and a reference point on a fairway. The tests were used to assess the execution of the queries in a database that returns the number of ships located in a predefined area and the number of ships located at a preset distance from the defined point. It has been determined from the test results that test queries are performed faster and data stored in the database occupy less disk space in MongoDB than in PostgreSQL. Faster geospatial analysis of AIS messages may improve the navigation safety by earlier detection of dangerous situations.
EN
Today, the changes in market requirements and the technological advancements are influencing the product development process. Customers demand a product of high quality and fast delivery at a low price, while simultaneously expecting that the product meet their individual needs and requirements. For companies characterized by a highly customized production, it is essential to reduce the trial-and-errors cycles to design new products and process. In such situation most of the company’s knowledge relies on the lessons learnt by operators in years of work experience, and their ability to reuse this knowledge to face new problems. In order to develop unique product and complex processes in short time, it is mandatory to reuse the acquired information in the most efficient way. Several commercial software applications are already available for product lifecycle management (PLM) and manufacturing execution system (MES). However, these two applications are scarcely integrated, thus preventing an efficient and pervasive collection of data and the consequent creation of useful information. The aim of this paper is to develop a framework able to structure and relate information from design and execution of processes, especially the ones related to anomalies and critical situations occurring at the shop floor, in order to reduce the time for finalizing a new product. The framework has been developed by exploiting open source systems, such as ARAS PLM and PostgreSQL. A case study has been developed for a car prototyping company to illustrate the potentiality of the proposed solution.
EN
Many database implementations are supported by application frameworks that can affect their performance. The paper presents a comparison of the performance of SQL Server, MySQL and PostgreSQL relational databases based on an application written in PHP using the Laravel framework. The time of performance for various types of queries, both simple and using column and table concatenation was evaluated. The obtained results for the same database structures differed depending on the operations performed on the databases. Looking at the entirety of the research conducted, it can be concluded that in the case of databases in which the number of records is not too large (up to 1000 records) and the technical parameters of the device on which the database is running are of low or medium class, MySQL performs very well.
PL
Wiele implementacji baz danych jest wspieranych przez szkielety aplikacji, które mogą rzutować na ich wydajność. Artykuł przedstawia porównanie wydajności relacyjnych baz danych SQL Server, MySQL oraz PostgreSQL na pod-stawie aplikacji napisanej w języku PHP z wykorzystaniem frameworku Laravel. Pod uwagę wzięty został czas wyko-nania różnego typu zapytań, zarówno prostych, jak również z użyciem konkatenacji kolumn oraz tabel. Otrzymane wyniki zostały poddane wielowymiarowej analizie. Otrzymywane wyniki dla takich samych struktur baz danych różniły się w zależności od wykonywanych operacji na bazach. Patrząc na całokształt przeprowadzonych badań można dojść do wniosku, że w przypadku baz danych, w których liczba rekordów nie jest zbyt duża (do 1000 rekordów) oraz parametry techniczne urządzenia, na którym uruchomiona jest baza są klasy niskiej bądź średniej bardzo dobrze wypada MySQL.
PL
Głównym celem niniejszego artykułu jest weryfikacja, który z trzech systemów bazodanowych: MySQL, MS SQL, PostgeSQL, jest najbardziej wydajny w kontekście aplikacji internetowych. W artykule zawarto informacje dotyczące wykorzystanych systemów bazodanowych, jednakże kluczowym elementem artykułu są badania wydajności baz danych. Zostały one wykonane w oparciu o aplikację, której najważniejszym zadaniem jest wykonywanie zapytań do bazy danych. Program został zbudowany w oparciu o najnowsze technologie, takie jak framework Spring, biblioteka Hibernate oraz interfejs JDBC.
EN
The main purpose of this article is to check which database: MySQL, MS SQL, PostgerSQL is the most efficient for Internet applications. This work contains information about the databases used, but the most important part of this article is database performance research. They are based on an application whose main task was database queries. The program was created based on new technologies, such as the Spring framework, the Hibernate library and JDBC Interface.
PL
Tworzenie aplikacji internetowych składa się z wielu procesów. Jednym z nich jest wybór odpowiedniego systemu bazy danych gdyż to od niej może w dużej mierze zależeć szybkość działania aplikacji. Duża liczba dostępnych systemów baz danych sprawia iż wybór ten nie jest łatwy. Niniejszy artykuł przedstawia porównanie wydajności pracy z bazami danych na przykładzie aplikacji tworzonych w Django oraz trzech systemów bazodanowych: MySQL, PostgreSQL oraz MongoDB.
EN
Development of web applications consists of many processes. One of them is choosing appropriate database management system which may have huge impact on application performance. Large availability of database management systems makes it not an easy choice. The goal of this paper is to compare efficiency of databases in Django-based applications and three different database management systems: MySQL, PostgreSQL and MongoDB.
PL
Artykuł odpowiada na pytanie, która baza danych jest najlepszym wyborem do efektywnego składowania danych opisujących modele UML. Wzięto pod uwagę trzy produkty: MongoDB, PostgreSQL i Neo4J. Na badanie efektywności składa się pomiar czasu odpowiedzi zapytań zapisujących oraz pobierających dane. Uwzględnia również stopień wzrostu pamięci podczas wstawiania danych oraz ocenę poziomu skomplikowania implementacji mapującej dane testowe do wykorzystania w zapytaniach do baz danych.
EN
The study answers the question which database is the best choice for efficient data storage of UML models. Three products were considered: MongoDB, PostgreSQL and Neo4J. The effectiveness test consists of measurement the response time of queries that save and load data. This study also take into account the memory increase ratio during data insertion and the level of complexity of the implementation of the test data mappers used in database queries.
PL
W artykule przedstawiono możliwości zastosowania przestrzennych baz danych w zarządzaniu sytuacjami kryzysowymi w jednostkach samorządu terytorialnego, na przykładzie tworzenia i administrowania bazą danych obiektów kwarantannowych wykorzystanych w ćwiczeniach z zakresu zarządzania kryzysowego (ZK) Kwarantanna 2015. Na podstawie analizy wniosków z ćwiczeń wojewódzkich z zakresu zagrożeń epidemiologicznych utworzono bazę danych obiektów kwarantannowych w województwie śląskim przy użyciu narzędzi opartych o licencje typu Open Source (OS) lub wolnego oprogramowania do rozwoju narzędzi informatycznych dla jednostek samorządu terytorialnego.
EN
In the article possibilities of using spatial databases in management of crisis situations in self-government units on the example of creating and administration a database of quarantine objects used in crisis management exercises Quarantine 2015 were presented. Based on the analysis of applications from provincial exercises in the field of epidemiological threats, a database of quarantine objects in the Śląskie Voivodeship using tools based on open source licenses (OS) for the development of IT tools for local government units was created.
EN
The aim of this research is to build an open schema model for a digital sources repository in a relational database. This required us to develop a few advanced techniques. One of them was to keep and maintain a hierarchical data structure pushed into the repository. A second was to create constraints on any hierarchical level that allows for the enforcement of data integrity and consistency. The created solution is mainly based on a JSON file as a native column type, which was designed for holding open schema documents. In this paper, we present a model for any repository that uses hierarchical dynamic data. Additionally, we include a structure for normalizing the input and description for the data in order to keep all of the model assumptions. We compared our solution with a well-known open schema model – Entity-Attribute-Value – in the scope of saving data and querying about relationships and contents from the structure. The results show that we achieved improvements in both the performance and disk space usage, as we extended our model with a few new features that the previous model does not include. The techniques developed in this research can be applied in every domain where hierarchical dynamic data is required, as demonstrated by the digital book repository that we have presented.
EN
JavaScript Object Notation was originally designed to transfer data; however, it soon found another use as a way to persist data in NoSQL databases. Recently, the most popular relational databases introduced JSON as native column type, which makes it easier to store and query dynamic database schema. In this paper, we review the currently popular techniques of storing data with a dynamic model with a large number of relationships between entities in relational databases. We focus on creating a simple dynamic schema with JSON in the most popular relational databases and we compare it with well-known EAV/CR data model and the document database. The results of precisely selected tests in the field of Criminal Data suggest that the use of JSON in dynamic database schema greatly simplifies queries and reduces their execution time compared to widely used approaches.
11
Content available Aplikacja mikroblogowa-handshake
PL
Artykuł zawiera prezentację możliwości aplikacji mikroblogowej zbudowanej przy pomocy frameworka Pylons w architekturze klient-serwer. Program jest skierowany na urządzenia mobilne wszystkich platform wspierających najnowszą specyfikację HTML5 oraz CSS3. Serwis wzorowany jest na portalu Twitter.
EN
The article contains a presentation of capabilities of microblogging application built with Pylons framework in client/server architecture. The software is designed to work on mobile devices of all platforms supporting HTML5 and CSS3 specification. It is inspired by a popular social networking site - Twitter.
PL
W artykule wykazano, iż możliwe jest przyspieszenie procesów analizy danych przestrzennych, w tym wypadku danych katalogu astrometrycznego gwiazd, bez konieczności modyfikacji kodu źródłowego bazy danych. Wykorzystano do tego celu zewnętrzne funkcje użytkownika UDF oraz technologię CUDA firmy NVIDIA, która pozwala na skuteczną akcelerację obliczeń numerycznych na podstawie procesorów kart graficznych.
EN
This paper proves that it is possible to accelerate spatial data analysis, for example astronomic data, without modifying source code of the database engine. User-defined function (UDF) were used in cooperation with NVIDIA CUDA to in-crease efficiency and speed of numerical operations.
PL
Artykuł przedstawia założenia i wprowadzenie do systemu ECTS na Politechnice Łódzkiej. Przedstawiono projekt i realizację systemu Kart Przedmiotów w ramach ECTS. Praca opisuje poszczególne funkcjonalności systemu oraz ich rozwiązania. W ramach systemu opracowano abstrakcyjną warstwę bazodanową, która pozwala na współpracę systemu z różnymi bazami danych oraz buforowanie danych przeznaczonych do wypełniania formularzy (jako rozwiązania autorskie).
EN
The paper presents the assumptions and the introduction of the ECTS system at the Technical University of Lodz. Presents the design and implementation of the System Card Courses under ECTS. Work describes the different functionality of the system and their solutions. In the system developed an abstract database layer that allows the system to work with various databases and data caching for filling out forms (as a solution to the authors).
14
Content available Comparative analysis of database access technology
EN
The paper’s subject is comparative analysis of database access technologies. It presents the evolution of the discussed technologies, which are divided into the following categories: single-platform and multi-platform technologies. Sample programs showing the use of programming interfaces, used for initiating and establishing connections with databases and performing simple operations on them. A database diagram, which was used for measuring efficiency of selected technologies as well as testing plan and concept, system and hardware parameters, tested queries and the program skeleton that was used for measuring the efficiency of selected technologies, were presented. The results were grouped according to 4 query types and 3 operating systems. A description was attached to each graph. Conclusions were provided for query tests for each of the operating systems. Finally, the most efficient technologies were discussed, potential causes of increase or decrease in efficiency were presented, and the results were summarized.
PL
Magazynowanie i udostępnianie dużej ilości danych binarnych wymaga dobrze zaprojektowanej architektury. Obecnie jedną z wiodących technologii tworzenia aplikacji typu cienki klient jest technologia serwletowa. Zasadne jest dokonanie oszacowania jej wydajności we współpracy z wybranymi systemami zarządzania bazami danych pod kątem tworzonego internetowego serwisu odsłonięć geologicznych.
EN
This article focuses on servlet technology as a main technology for university server which role is to collect and serve geological data acquired by students. The web application was tested for photos 10KB, 100KB, 1000KB and 10000KB on two operating systems (Windows and Linux) using MySQL and PostgreSQL.
PL
Celem artykułu jest omówienie opracowanego narzędzia geomatycznego, pozwalającego zoptymalizować prezentację zbiorów geoinformacji wektorowej w Internecie. Niniejsza praca opisuje metodę konfiguracji popularnego globusa elektronicznego GoogleEarth oraz kartograficznej aplikacji internetowej Google Maps z danymi przestrzennymi, które zebrane zostały w systemie baz danych PostgreSQL/PostGIS. Istotą zaproponowanego rozwiązania jest dynamiczna wizualizacja wektorowych danych przestrzennych, których zakres przestrzenny odpowiada obszarowi widocznemu na ekranie użytkownika. Zakres obszaru widzianego na ekranie jest generowany przez przeglądarkę kartograficzną w postaci współrzędnych geograficznych, które są następnie odczytywane przez autorski program dynpg2kml opracowany w języku PHP. Program ten komunikuje się z systemem PostgreSQL/PostGIS i zwraca pozyskane z niego dane wektorowe w postaci kodu w języku KML. Kod ten jest odczytywany, przetwarzany i wyświetlany przez aplikacje GoogleEarth oraz Google Maps. Główną zaletą zaproponowanego rozwiązania jest możliwość prezentacji szczegółowych danych wektorowych, transmitowanych dynamicznie w niewielkich pakietach. W porównaniu do transmisji całości zbioru danych w jednym pakiecie, skrócony zostaje czas oczekiwania użytkownika na informację, co ma duże znaczenie w przypadku dystrybucji dużych zbiorów danych oraz w warunkach ograniczonej prędkości transmisji danych. Możliwości wykorzystywanego systemu pozwalają na dalszy rozwój zaproponowanego programu. Jako przykład, przedstawiona zostanie metoda dostosowywania szczegółów geometrii wyświetlanych obiektów wektorowych do skali prezentowanej mapy.
EN
The goal of the paper is to describe an original geomatic tool for the optimized visualization of vector datasets on the Internet. This paper covers a configuration method of Google Earth popular digital globe and Google Maps cartographic Internet application with spatial data collected in PostgreSQL/PostGIS database system. The essence of the proposed solution is the dynamic visualization of vector data fragments, whose spatial range corresponds to the area of the user's screen. The spatial range on the user's screen, recorded in geographic coordinates, is generated by the cartographic browser and is read afterwards by the author's original programme dynpg2kml written in PHP. The programme communicates with PostgreSQL/PostGIS database system and returns vector datasets in KML code. The code is read, parsed and visualized by the Google Earth and Google Maps software. The main advantage of this solution is the possibility of presentation of detailed vector datasets, transmitted dynamically in small packets. In comparison to the transmission of whole data collection in one packet, the user's anticipation time decreases. It is considerably important in case of the distribution of large datasets or under low data transfer conditions. The possibilities of the system used here allow its further development. A method of adapting the geometry details to the presentation scale is described here, too.
17
Content available remote Electronic health record
EN
Information technologies are widely present in modern health care and in teaching medicines students. It is important to create tools that will be universal and will employ newest tech- nologies and medical standards. Creating an electronic health record application is a trial to implement such a tool in order to teach students how real life application works and how to work with medical dictionaries such as ICD-10.
PL
Rozwiązania z zakresu informatyki są integralną częścią wspomagającą różnorodne aspekty współczesnej służby zdrowia. Powinnością projektantów i wykonawców tych narzędzi jest dbałość o to, aby tworzone były zgodnie z najnowszymi, uznanymi standardami informatycznymi oraz medycznymi. Nowoczesne nauczanie medycyny wymaga równocześnie pełniejszego zapoznawania studentów z tymi rozwiązaniami.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.