Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!

Znaleziono wyników: 32

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  SQL
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
1
Content available remote Obsługa danych temporalnych dla wymiaru czasu rzeczywistego na platformie ORACLE
PL
Celem artykułu jest wskazanie zakresu implementacji obsługi danych temporalnych dla czasu rzeczywistego w środowisku ORACLE oraz określenie stopnia zgodności tej implementacji z zapisami dotyczącymi temporalnych rozszerzeń języka SQL zawartych w standardzie ISO/IEC 9075 w wersji SQL:2011, a także prezentacja możliwości obsługi danych temporalnych w środowisku Oracle.
EN
The aim of the article is an indication the scope of the implementation of temporal data support for valid time in the ORACLE environments and determining the degree of compliance of this implementation with the provisions on temporal extensions of the SQL language of the ISO/IEC 9075 standard in the SQL: 2011 version, as well as to present possibility of handling temporal data by Oracle environment.
2
Content available Analiza możliwości optymalizacji zapytań SQL
PL
Większość obecnie istniejących aplikacji internetowych działa w oparciu o relacyjne systemy baz danych. Komunikacja z nimi jest możliwa poprzez instrukcje zapisywane w Structured Query Language (SQL). Niniejsza publikacja prezentuje najbardziej popularne systemy do zarządzania relacyjnymi bazami danych oraz opisuje powszechne sposoby optymalizacji zapytań SQL. Wykorzystując środowisko badawcze, w którym zaimportowano część bazy danych serwisu imdb.com oraz silniki OracleDb, MySQL, Microsoft SQL Server i PostgreSQL wykonano szereg scenariuszy testowych. Celem było sprawdzenie zmiany wydajności zapytań SQL wynikających z modyfikacji składni przy zachowaniu rezultatu, wpływu organizacji bazy danych, indeksowania oraz zaawansowanych mechanizmów, mającychna celu wzrost efektywności wykonywanych operacji, dostarczanych w wykorzystanych systemach. Testy zostały przeprowadzone przy pomocy autorskiej aplikacji napisanej w języku Java z wykorzystaniem szkieletu programistycznego Hibernate.
EN
Most of today's web applications run on relational database systems. Communication with them is possible through statements written in Structured Query Language (SQL). This paper presents the most popular relational database management systems and describes common ways to optimize SQL queries. Using the research environment based on fragment of the imdb.com database, implementing OracleDb, MySQL, Microsoft SQL Server and PostgreSQL engines, a number of test scenarios were performed. The aim was to check the performance changes of SQL queries resulting from syntax modication while maintaining the result, the impact of database organization, indexing and advanced mechanisms aimed at increasing the eciency of operations performed, delivered in the systems used. The tests were carried out using a proprietary application written in Java using the Hibernate framework.
EN
This article presents a comparative analysis of four popular database technologies. Commercial Oracle Database and SQL Server systems have been compared with open source database management systems: PostgreSQL and MySQL. These systems have been available on the market for over a dozen years. Versions released in 2019 were selected for testing and comparison. For the purposes of the comparative analysis, a database schema was developed and instantiated. Then, test scenarios have been developed. They have been prepared on the basis of the most popular operations performed with the use of database systems.
PL
W artykule przedstawiona została analiza porównawcza czterech technologii bazodanowych. Komercyjne systemy Oracle Database i SQL Server porównane są z darmowymi systemami do zarządzania bazą danych: PostgreSQL i MySQL. Systemy te dsotępne są na rynku od kilkunastu lat, do testów i porównania wybrane zostały wersje wydane w 2019 roku. Na potrzeby analizy porównawczej zaprojektowano oraz utworzono schemat bazy danych. Następnie opracowano scenariusze testowe. Przygotowane zostały one w oparciu o najpopularniejsze operacje wykonywane z wykorzystaniem systemów bazodanowych.
4
Content available Fuzzy SQL queries in standard SQL database
EN
Uncertain queries are very common in many areas of human activity. The problem can be seen particularly in medicine, where expressions like ”very high”, ”low”, ”normal” are commonly used in order to describe different information. However, the most popular data repositories do not allow to form imprecise queries in order to filter information. Therefore, the paper proposes an extension to the standard SQL language allowing anybody to profit from fuzzy database using any SQL engine. The existing approaches employ different mechanisms in order to allow the user to perform fuzzy queries on a database. The most complex solutions modify the database engine itself. However, such approach is strongly bound to the modified server version and must be updated with any development of the original server. Nevertheless, there is possible to store fuzzy information using for instance columns of regular relational database. Therefore, this approach proposes extensions to the query language allowing to use fuzzy information in a query and provides a parser transforming a fuzzy query into a standard SQL. Thus, the database server version is irrelevant. The solution is provided as a module written in multi-platform Java language using popular JDBC database connection.
EN
Extensible Markup Language was mainly designed to easily represent documents; however, it has evolved and is now widely used for the representation of arbitrary data structures. There are many Application Programming Interfaces (APIs) to aid software developers with processing XML data. There are also many languages for querying and transforming XML, such as XPath or XQuery, which are widely used in this field. However, because of the great flexibility of XML documents, there are no unified data storing and processing standards, tools, or systems. On the other hand, a relational model is still the most-commonly and widely used standard for storing and querying data. Many Database Management Systems consist of components for loading and transforming hierarchical data. DB2 pureXML or Oracle SQLX are some of the most-recognized examples. Unfortunately, all of them require knowledge of additional tools, standards, and languages dedicated to accessing hierarchical data (for example, XPath or XQuery). Transforming XML documents into a (quasi)relational model and then querying (transformed) documents with SQL or SQL–like queries would significantly simplify the development of data-oriented systems and applications. In this paper, an implementation of the SQLxD query system is proposed. The XML documents are converted into a quasi-relational model (preserving their hierarchical structure), and the SQL–like language based on SQL-92 allows for efficient data querying.
EN
The paper presents the database solution for integration of information in distributed data exchange system elements of the Polish Border Guard. The proposed database solution is described in the context of data exchange system elements which control position and store identification data of vessels (fishing, sports and sailing boats) and other suspicious objects on the territorial sea, sea-coast and the internal sea-waters controlled by Maritime Polish Border Guard. The paper presents the general architecture of the data exchange system ele-ments of Border Guard, the general MapServer architecture as a component of the Border Guard system. To explain the challenges being faced during implementation the conceptual model of database is also presented. Moreover main functionalities of database client and functional tests results are described.
PL
W artykule zaprezentowano bazę danych dla potrzeb integracji informacji w rozproszonych elementach systemu wymiany danych Straży Granicznej. Proponowane rozwiązanie bazy danych zostało przedstawione w kontekście elementów systemu umożliwiających kontrolę położenia i przechowanie danych identyfikujących statki (rybackie, sportowe, żaglówki) i inne podejrzane obiekty na morzu terytorialnym, na brzegu morza i w obszarze morskich wód wewnętrznych patrolowanych przez Morski Oddział Straży Granicznej. Przedstawiono ogólną architekturę systemu wymiany danych Straży Granicznej i ogólną architekturę MapServera — kluczowego elementu systemu wymiany danych. Istotę problemu i wyzwania, jakim należało sprostać, poparto modelem konceptualnym bazy danych. W artykule zaprezentowano również główne funkcje klienta bazy danych oraz wyniki testów funkcjonalnych.
PL
Powszechnie stosowane komercyjne narzędzia doboru indeksów działają na podstawie metod umożliwiających indeksowanie tabel będących częścią niezależnych zapytań SQL. W artykule przedstawiono ideę indeksowania tabel uwzględniającą gęstość grupy zapytań. Przedstawiono wyniki uzyskane autorską Metodą Doboru Indeksów (MDI), opierającą się na algorytmie genetycznym. Przeprowadzone badania pokazują, że dla różnych gęstości zastosowanie indeksu grupowego pozwala skrócić czas wykonania zapytań (o 15%), a także zmniejszyć rozmiar indeksów (o 68-90%).
EN
Commonly used commercial tools are based on a methodology that enables tables indexing for individual SQL queries. The article presents an original method, based on a genetic algorithm, for indexing tables for groups of queries in a relational database. Conducted experiments have shown that the use of indices for a group of queries can reduce the group execution time by 15% as well as can reduce the memory needs by 68-90%.
EN
Since 2005, in IUNG-PIB [Institute of Soil Science and Plant Cultivation – State Research Institute] work on the construction of the "Decision support system in plant production" (DSSPP) has been conducted. The purpose of the system is to generate information for agricultural producers, advisers, administration, etc. The DSSPP includes the yield forecast module (YFM), which implements in SQL language the yield forecast models of the selected crops developed at the Institute. As a supplement to the YFM, an application for generation of reports on yield forecasts was built with the use of the models. Reports in text and spreadsheet form are sent by e-mail to designated recipients. The application extends the YFM functionality adjusting information to the recipient's needs (selection of crops and localities). The tests conducted on the application showed conformity of the results generated by the reporting application and the yield forecast module.
PL
Od 2005 roku w IUNG-PIB prowadzone są prace nad budową "Systemu wspomagania decyzji w zakresie produkcji roślinnej" (SWDPR), przeznaczonego do generowania informacji dla producentów rolnych, doradców, administracji, itd. W skład SWDPR wchodzi moduł prognozowania plonów (MPP), implementujący w języku SQL modele plonowania wybranych roślin uprawnych opracowane w Instytucie. Jako uzupełnienie MPP zbudowano aplikację do generowania raportów o prognozach plonowania roślin uprawnych, wykorzystując modele pochodzące z MPP. Raporty w formie tekstowej i w arkuszu kalkulacyjnym są przesyłane drogą elektroniczną do określonych odbiorców. Aplikacja rozszerza funkcjonalność MPP umożliwiając dostosowanie informacji do potrzeb odbiorcy (wybór uprawy i miejscowości). Testowanie aplikacji pozwoliło stwierdzić zgodność wyników generowanych przez aplikację raportującą i moduł prognozowania plonów.
PL
Indeksowanie jest kluczowym elementem optymalizacyjnym systemów relacyjnych baz danych. Komercyjne narzędzia doboru indeksów (np. Toad, SQL Server Database Tuning Advisor) działają na podstawie metod przeznaczonych dla pojedynczych zapytań. W artykule przedstawiono podejście indeksowania tabel w ramach grupowych zapytań SQL uwzględniające kryterium rozmiaru indeksów. Przedstawione przykłady ilustrują, że zastosowanie podejścia grupowego pozwala zmniejszyć czas wykonania zapytań nawet o 30% w stosunku do rozwiązań uzyskanych klasycznymi metodami.
EN
This paper discusses the problem of minimizing the response time for a given database workload by a proper choice of indexes. The main objective of our contribution is to illustrate the database queries as a group and search for good indexes for the group instead of an individual query, including the size criterion. Examples illustrate that the use of a group approach can reduce queries block execution time of 30% compared to classical methods.
PL
Mapy od wieków stanowią narzędzie modelowania i obrazowania przestrzeni geograficznej. W miarę rozwoju technik kartograficznych możliwe stawało się coraz szersze wykorzystanie map, dalece wykraczające poza ich pierwotne funkcje lokalizacyjne. Rozwijająca się w XX wieku kartograficzna metoda badań (KMB) umożliwia badanie fizycznej przestrzeni za pomocą mapy, traktowanej jako model tejże przestrzeni. Jednym z podstawowych narzędzi informatycznych stosowanych w technologii GIS jest język SQL, pozwalający na tworzenie sformalizowanych zapytań, które umożliwiają selekcję, agregację i analizę informacji zgromadzonych w bazie danych. Zastosowanie SQL umożliwia także poznanie charakterystyk wyselekcjonowanych obiektów (wynikających tak z geometrii, jak i z atrybutów im przypisanych). Zastosowanie analizy danych przestrzennych wykorzystującej składnię SQL w sposób pośredni umożliwia więc badanie przestrzeni geograficznej. Wyniki analizy informacji geograficznej ściśle zależą od poziomu uogólnienia danych źródłowych (skali mapy czy poziomu szczegółowości bazy danych - LoD). Celem autorów było sprawdzenie na ile wyniki analizy uzyskane poprzez wykorzystanie różnych poziomów informacyjnych wielorozdzielczej bazy danych topograficznych są wiarygodne i miarodajne. Autorzy prowadząc badania zastosowali „klasyczną metodykę” KMB posługując się nowoczesnymi narzędziami GIS. Zunifikowane analizy przestrzenne zostały zrealizowane dla różnych poziomów szczegółowości danych źródłowych (TOPO10 i TOPO250) i różnych obszarów testowych. Uzyskane wyniki wskazują, iż zmiana poziomu szczegółowości bazy danych może bardzo istotnie wpływać na otrzymywany rezultat analizy, co może prowadzić do błędnej oceny i interpretacji wyników.
EN
For ages maps have been the tool for modeling and representation of geographic space. As cartographic techniques were developed, maps became useful in much wider aspects then only for the original function of object localization. The Cartographic Research Method allows studies on physical space using map, treated as model of this space. One of the basic information tools used in GIS technology is SQL (Structured Query Language), language which is used for creation of formalised queries allowing for selection, aggregation and analysis of information collected in database. Application of SQL is also used to learn about characteristics of selected objects which can come from both geometry and attributes ascribed to them. Therefore, the use of spatial data analysis by applying SQL allows for indirect studies on geographic space. Results of analysis of geographic space are closely connected with the level of detail (LoD) or scale of the source data. The authors’ goal was to check how reliable are results received by analyzing different LoD of multiresolution topographic database. The authors used the “classic methodology” of Cartographic Research Method by applying modern analytical tools in GIS. Unified analysis were used for various LoD (TOPO10 and TOPO250) and different test areas. Obtained results show that changing LoD may strongly influence the results of the analysis, which can lead to their wrong evaluation and interpretation.
EN
This paper presents implementations of a few selected SQL operations using the CUDA programming framework on the GPU platform. Nowadays, the GPU’s parallel architectures give a high speed-up on certain problems. Therefore, the number of non-graphical problems that can be run and sped-up on the GPU still increases. Especially, there has been a lot of research in data mining on GPUs. In many cases it proves the advantage of offloading processing from the CPU to the GPU. At the beginning of our project we chose the set of SELECT WHERE and SELECT JOIN instructions as the most common operations used in databases. We parallelized these SQL operations using three main mechanisms in CUDA: thread group hierarchy, shared memories, and barrier synchronization. Our results show that the implemented highly parallel SELECT WHERE and SELECT JOIN operations on the GPU platform can be significantly faster than the sequential one in a database system run on the CPU.
PL
Artykuł przedstawia odpowiedzi na najczęstsze pytania, które zada-ją sobie webmasterzy, programiści, podczas pisania zapytań SQL. Jakie złączenia tabel stosować? Jaki silnik bazy wybrać? Czy i kiedy lepszym rozwiązaniem jest wykonanie kilku mniejszych zapytań, a kiedy jednego złożonego? Te i inne dylematy zostaną omówione i opatrzone konkretnymi przykładami.
EN
Article presents answers to common questions, which have webmasters, programmers when writing SQL queries. How to join tables? Which database engine is better to choose? If and when the better solution is to perform several smaller queries and when complex one? These and other dilemmas will be discussed and provided with concrete examples.
PL
Artykuł przedstawia metodę automatycznego doboru i optymalizacji indeksów utworzonych na tabelach relacyjnej bazy danych dla dowolnego wycinka czasowego w cyklu przetwarzania powtarzalnego lub zmiennego kodu SQL. Powszechny sposób selekcji indeksów polega na wybraniu najczęściej odpytywanych kolumn dla pojedynczego zapytania z pominięciem innych zapytań SQL w wybranym bloku przetwarzania zapytań. W całościowym cyklu przetwarzania powszechnie stosowana metoda optymalizacji tylko jednego zapytania SQL może okazać się mało wydajna.
EN
Article presents new approach to automatic indexes selection problem (ISP) and indexes optimization for any timeframe in process of constant or variable SQL queries block processing for relational database systems. Common index selection methods usually focus on choosing most frequently selected columns for standalone SQL query, omitting other queries present in the same processing block. For a long database processing, containing more than one SQL query, commonly used optimization methods may prove to be inefficient.
PL
Zaprezentowano wieloplatformowy system archiwizacji danych informatycznych w organizacji wyposażonej w sieć informatyczną. Istotą i celem niniejszego rozwiązania jest zapewnienie bezpieczeństwa danych komputerowych, które są przetwarzane w takich systemach operacyjnych jak Linux, Windows, NetWare, z wykorzystaniem zintegrowanego systemu archiwizacji, który komunikuje się z powyższymi OS. Współpracujące z tymi systemami (serwerami) komputery są zarówno stacjonarne, jak i mobilne. Komputery mobilne zostały wyposażone w narzędzia umożliwiające użytkownikowi synchronizację tych komputerów z serwerem archiwizującym. Synchronizacja następuje samoczynnie po dołączeniu ich do sieci informatycznej, po uprzedniej pracy zdalnej. Podczas archiwizowania jest stosowana zasada, że w systemie informatycznym serwerowi archiwizującemu organizacji zapewniono dostęp o najwyższych uprawnieniach do pełnych danych informatycznych. W celu umożliwienia właściwego pobierania danych przez serwer archiwizujący, wszystkie systemy OS są wyposażone w narzędzia, które umożliwiają autoryzowany, jednokierunkowy dostęp do ich systemów poprzez ten serwer. Ze względów bezpieczeństwa, podczas pobierania danych, jak również podczas komunikacji z innymi systemami OS, połączenia serwera archiwizującego z innymi systemami powinny być szyfrowane.
EN
The multi-platform computer data backup system in an organization equipped with a computer network is presented. The essence and purpose of this arrangement is to ensure the security of computer data which are processed in such operating systems as Linux, Windows, NetWare, using an integrated archiving system which communicates with the above OS systems Compatible with these systems (servers) computers are both stationary and mobile. Mobile computers are equipped with tools that enable users to synchronize those PCs to the server archiving. Synchronization occurs when you attach them to the computer network, after first working remotely. While archiving is applied the principle that in the organization computer system, archiving server has access to all computer data with the highest privileges. In order to allow proper collection of data by the archive server, all OS systems are equipped with tools that enable authorized, one-way access to the systems in the organization through this server. For security reasons, when retrieving data, as well as when communicating with other OS systems, archiving server connection to other systems should be encrypted.
PL
Autorzy proponują zastosowanie modelu quasi-relacyjnego jako podstawy przetwarzania danych pochodzących z dokumentów XML. Dane XML są transformowane do zbiorów relacyjnych według intuicyjnych reguł, wykorzystujących składnię i strukturę źródłowego dokumentu. Elementem rozwiązania jest język zapytań nazwany SQLxD, opierający się na składni popularnego SQL. Element ten stanowi narzędzie do transformacji danych oraz dalszego ich przetwarzania.
EN
The authors propose to use the quasi-relational model as a basis to the XML data processing. The XML data is transformed to the relational data sets according to the intuitive rules that make use of the syntax and structure of the source document. Part of the solution is the query language called SQLxD, which is based on the popular SQL syntax. SQLxD is a tool for both data transformation and its further processing.
EN
Distributed computing and data mining are two elements essential for many commercial and scientific organizations. This article presents metadata of a distributed data mining system based on combining local models created in distributed nodes into global models. This metadata is divided into following categories: primal, derivative, work and test data for local and global models.
PL
Rozproszone przetwarzanie oraz eksploracja danych są obecnie zasadniczymi elementami działalności wielu jednostek naukowych, a także organizacji komercyjnych. Artykuł opisuje metadane wykorzystane w systemie rozproszonej eksploracji danych, opartym na scalaniu modeli lokalnych, powstających w rozproszonych węzłach systemu, w modele globalne. Obejmują one metadane pierwotne, wynikowe, robocze, a także testowe dla modeli lokalnych oraz globalnych.
17
Content available remote Implementacja asercji w relacyjnych bazach danych na przykładzie systemu ORACLE
PL
W artykule przedstawiono problem właściwej implementacji więzów integralności baz danych w postaci asercji we współczesnych systemach zarządzania bazami danych. Jak pokazano, w tym zakresie rozwój języka SQL nie kreuje nowych rozwiązań, a jedynie dostosowuje nowy standard do metod tworzenia asercji przy wykorzystaniu wyzwalaczy w takich systemach jak Oracle. Mimo ciągłego doskonalenia dostępnych w ramach baz danych funkcjonalności, prawidłowa obsługa nowych mechanizmów nastręcza wiele trudności i nie jest zgodna z obowiązującymi standardami.
EN
The paper presents the problem of the proper implementation of integrity constraints of databases in modern database management systems. As shown, in this regard, the development of SQL language does not create new solutions, but only adjusts to the new methods for creating assertions using triggers in systems such as the Oracle. Despite continuous improvement in the available database functionality, correct implementation of new mechanisms is difficulties and is not compatible with current standards.
EN
As a part of the Semantic Web initiative there are being developed knowledge inference systems. The languages for accessing such systems are also open issues. The paper proposes a new language for accessing modularized knowledge bases, which features allow for its comprehensive usage in knowledge management systems in an analogous way as SQL language in relational databases.
PL
W ramach inicjatywy Semantic Web rozwijane się systemy wnioskowania z wiedzy. Ciągle otwartym problemem są również języki dostępu do takich systemów. W artykule zaproponowano nowy język dostępu do zmodularyzowanych baz wiedzy, o cechach umożliwiających jego kompleksowe wykorzystanie w systemach zarządzania wiedzą, w sposób analogiczny do wykorzystania języka SQL w systemach relacyjnych baz danych.
PL
W artykule w oparciu o wcześniej utworzoną bazę danych zostały sformułowane przykładowe zapytania SQL-owe w implementacji MS SQL Server 2008. Pokazano różne możliwości pisania poleceń manipulujących danymi w bazach. Zaprezentowano zapytania generujące wyniki w formatach relacyjnych i nierelacyjnych i omówiono przykłady zadań nietypowych, pozornie bardzo trudnych i złożonych oraz niebanalnych rozwiązań wykorzystujących możliwości języka SQL.
EN
The article presents examples of SQL queries in the implementation of MS SQL Server 2008, basing on a database created beforehand. It presents different possibilities of creating commands to manipulate data in the databases. It presents queries generating results in relational and nonrelational formats. It also presents not typical tasks, with complex and original solutions using SQL language.
PL
Problemy harmonogramowania pojawiają się na wielu poziomach problemów decyzyjnych dotyczących produkcji. Na ogół charakteryzują się dużą liczbą ograniczeń (kolejności wykonania zadań, dostępnych zasobów itp.). Ze względu na zło- żoność obliczeniową wynikającą z dużej liczby zmiennych decyzyjnych całkowitoliczbowych oraz charakteru problemów są klasyfikowane jako zadania NP-trudne. Z tego powodu tradycyjne podejścia do rozwiązania tych problemów opierające się na programowaniu matematycznym są często nieefektywne. W odróżnieniu od podejścia tradycyjnego gdzie modelowanie ograniczeń problemu zwykle jest sztuczne (użycie dodatkowych zmiennych 0-1) w środowisku programowania w logice z ograniczeniami (CLP – Constrain Logic Programming) modelowanie ograniczeń jest naturalne i wynika z paradygmatu na którym środowisko CLP zostało oparte. Środowisko CLP jest środowiskiem deklaratywnym. W pracy zaproponowano wykorzystanie środowisk deklaratywnych (CLP, SQL, HTML) do budowy systemu wspomagania decyzji harmonogramowania produkcji.
EN
Scheduling problems appear frequently at different levels of decisions. They are usually characterized by many types of constraints, which make them unstructured and difficult to solve (NP-complete). Traditional mathematical programming approaches are deficient because their representation of constraints is artificial (using 0-1 variables). Unlike traditional approaches, constraint logic programming (CLP) provides for a natural representation of heterogeneous constraints. In CLP we state the problem requirements by constraints; we do not need to specify how to meet these requirements. In this paper we propose a declarative framework for decision support system (DSS) for scheduling problems implemented by CLP and relational SQL database. We illustrate this concept by the implementation of a DSS for scheduling problems with external resources in different production organization environments.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.