Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 70

Liczba wyników na stronie
first rewind previous Strona / 4 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  data
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 4 next fast forward last
EN
The development of the Internet and the dynamic growth in the number of digital data sources have resulted in a strong need for appropriate tools to facilitate and stream-line the collection and processing of information. The response to this need is the widely available Open Source Intelligence (OSINT) tools. The aim of this article is to identify the advantages and disadvantages of using widely available OSINT software to acquire, collect, analyse, process and share data. In order to address the above issue, an analysis of the subject literature, online publications and press sources was carried out. The literature analysis consisted of com-piling, organising and interpreting the content contained therein with regard to the use of OSINT tools. The right choice of tools, combined with a well-thought-out long-term strategy, can significantly support processes such as the rapid acquisition of necessary data and information, facilitating project management and key decisions relevant to the security of both small and medium-sized enterprises and multinational corporations. However, the use of this type of software also has certain limitations that should be taken into account when planning a long-term strategy. Data redundancy and difficulties in analysing and interpreting information are just some of them, so it is worth paying attention to both the advantages and disadvantages of OSINT tools
EN
Gravitational classifiers belong to the supervised machine learning area, and the basic element they process is a data particle. So far, many algorithms have been presented in the world literature. They focus on creating a data particle and determining its two important parameters – a centroid and a mass. Hypergeometrical divide is one of the latest algorithms in this group, which focuses on reducing the amount of processing data and keeping relevant information. The proportion of data to information depends on the data particle divide depth level. Its properties and application potential have been researched, and this article is the next step of the work. The research described in this article aimed to determine the relation of the depth level value of data particle divide to the effectiveness of the hypergeometrical divide algorithm. The research was conducted on 7 real data sets with different characteristics, applying methods and measures of evaluating artificial intelligence algorithms described in the literature. 63 measurements were performed. As a result, the effectiveness of the hypergeometrical divide method was defined at each of the available data particle divide depth levels for each of the used databases.
3
EN
The aim of the article is to present the generative technology of artificial intelligence and a general analysis of its achievements and technological limitations. In turn, the hypothesis is as follows: data is the main factor ensuring the development of generative AI. The identified research niche includes stimulants of this development, the need to clarify the concept of generative AI and the indication of the most frequently used sources and methods of obtaining data. At the beginning, the concept and genesis of artificial intelligence were explained, which was necessary to move on to further considerations regarding the analyzed generative artificial intelligence. The self-learning mechanisms used by this type of artificial intelligence are discussed, consisting mainly in the analysis of specific data sets, thanks to which computers learn things that have not been known before. The advantages of generative artificial intelligence were also indicated, including increased productivity, greater efficiency and high creativity. Part of the attention was also paid to the limitations of this technology, including inaccurate and fuzzy output information, uncritical analyzes and often biased conclusions, copyright infringement and high requirements for memory and computing power of computers. Two factors have been identified that have recently stimulated the development of generative intelligence, i.e. the growing computing power of computers and easy access to large data sets. The main subject of considerations are large data sets, dynamically and uncontrollably self-replicating in Internet servers. Today, data resources are collected very efficiently, including: in Big Data, Cloud Computing and Internet of Things technologies, and their use is almost cost-free and publicly available. It was enough to improve the technology of artificial neural networks, expand multi-layer machine learning and create deep learning for generative intelligence to gain enormous momentum and become a symbol of the beginning of the 21st century. The whole investigation was summarized with a synthetic ending.
PL
Celem artykułu jest przybliżenie technologii generatywnej sztucznej inteligencji i ogólna analiza jej osiągnięć i ograniczeń technologicznych. Z kolei postawiona hipoteza brzmi następująco: dane są głównym czynnikiem zapewniającym rozwój generatywnej sztucznej inteligencji. Dostrzeżona nisza badawcza obejmuje stymulanty tego rozwoju, potrzebę doprecyzowania samego pojęcia generatywnej sztucznej inteligencji oraz wskazanie najczęściej wykorzystywanych źródeł i metod pozyskiwania danych. Na wstępie wyjaśniono pojęcie i genezę sztucznej inteligencji, co było niezbędne, żeby przejść do dalszych rozważań dotyczących analizowanej generatywnej sztucznej inteligencji. Omówiono mechanizmy samouczenia wykorzystywane przez ten rodzaj sztucznej inteligencji, polegające głównie na analizie określonych zbiorów danych, dzięki którym komputery uczą się od postaw rzeczy dotychczas nieznanych. Wskazano również zalety generatywnej sztucznej inteligencji, wśród których wymienić można zwiększoną produktywność, większą wydajność i dużą kreatywność. Cześć uwagi poświęcono także ograniczeniom tej technologii, są to między innymi niedokładne i rozmyte informacje wyjściowe, bezkrytyczne analizy i często stronnicze wnioski, czy naruszanie praw autorskich oraz wysokie wymagania w zakresie pamięci i mocy obliczeniowej komputerów. Wskazano dwa czynniki stymulujące w ostatnich czasach rozwój inteligencji generatywnej, tj. rosnące moce obliczeniowe komputerów oraz łatwą dostępność do wielkich zbiorów danych. Zasadniczym przedmiotem rozważań są wielkie zbiory danych, dynamicznie w sposób niekontrolowany samoreplikujące się w serwerach internetowych. Zasoby danych są dziś bardzo sprawnie gromadzone m.in. w technologii Big Data, Cloud Computing i Internet of Things, a ich użytkowanie jest prawie bezkosztowe i ogólnodostępne. Wystarczyło poprawić technologię sztucznych sieci neuronowych, rozszerzyć wielowarstwowe nauczanie maszynowe i stworzyć uczenie głębokie, aby inteligencja generatywna nabrała ogromnego tempa i stała się symbolem początków XXI wieku. Całość dociekań podsumowano syntetycznym zakończeniem.
EN
Wireless Body Area Networks (WBANs) are based on connected and dedicated sensor nodes for patient monitoring in the healthcare sector. The sensor nodes are implanted inside or outside the patient’s body for sensing the vital signs and transmitting the sensed data to the end devices for decision-making. These sensor nodes use advanced communication technologies for data communication. However, they have limited capabilities in terms of computation power, battery life, storage, and memory, and these constraints make networks more vulnerable to security breaches and routing challenges. Important and sensitive information is exchanged over an unsecured channel in the network. Several devices are involved in handling the data in WBANs, including sink nodes, coordinator, or gateway nodes. Many cryptographic schemes have been introduced to ensure security in WBANs by using traditional confidentiality and key-sharing strategies. However, these techniques are not suitable for limited resource-based sensor nodes. In this paper, we propose a Lightweight Hybrid Cryptography Algorithm (LWHCA) that uses cryptographicbased techniques for WBAN networks to improve network security, minimize network overhead and delay issues, and improve the healthcare monitoring processes. The proposed solution is evaluated in a simulation scenario and compared with state-of-the-art schemes in terms of energy consumption, and ciphertext size.
EN
On March 11, 2022, Polish parliament, the Sejm passed the Law on Homeland Defense. The Law replaces 14 other legal acts in the field of military law. The main goal of the Law was to prepare the Polish Armed Forces for the processes of rapid increase in the manpower and technical modernization, also due to the current geopolitical context related to the war in Ukraine. The Law is extensive. Although the improvement of Poland’s cybersecurity was not its primary goal, the Law introduces a number of solutions that undoubtedly pursue such a goal. This paper discusses selected issues in the field of cybersecurity included in the Law, and regarding the method of defining the cyberspace, organization and tasks of the Cyberspace Defense Forces, including the socalled proactive protection and active defense, as well as the competence of military authorities to access and manage data.
EN
Purpose: The aim of this study is to develop an architecture of enterprise solutions that allow real-time (or simulated) extraction, storage and analysis of parameterized data from high- resolution sensors to more accurately predict the potential course of technological processes in the industry and solving of related logistics tasks. Design/methodology/approach: The development of an integration architecture based on appropriate Web tools for viewing and collaborating on corporate information of the oil and gas industry will allow full operational decision-making on this basis, guided by the values of relevant controlled parameters and imposed on them and the process as a whole relevant constraints in general are the methodological grounds of the research from the theoretical and subject domain scope. The functionality of the artificial intelligence system should be reduced to sending signals to the controller in order to modify the controlled parameters through the appropriate instructions. At the theoretical level, measurement, interpretation and control will take place either on the surface, or on the bore, or in both places at the same time. Findings: There were explored software outlines for making possible the creation of the desired findings for new and better business processes and technological innovations in the domestic gas and oil industries based on intelligent information solutions. As proposed in this study, optimal flexibility and forward performance will only be achieved through the use of the cloud as a platform for tomorrow's technological challenges in the oil and gas industry. Originality/value: The newly developed focus on novel class of increasing domestic business efficiency will generally encourage oil and gas companies to develop their information architecture in the direction of knowledge-based systems and solutions, especially when controlling the drilling of oil and gas wells in terms of incomplete, inaccurate and poorly structured information from sensors.
EN
This paper presents a concept, developed and tested by the authors, of a virtualisation environment enabling the protection of aggregated data through the use of high availability (HA) of IT systems. The presented solution allows securing the central database system and virtualised server machines by using a scalable environment consisting of physical servers and disk arrays. The authors of this paper focus on ensuring the continuity of system operation and on minimising the risk of failures related to the availability of the operational data analysis system.
PL
Niniejszy artykuł przedstawia koncepcję środowiska wirtualizacyjnego umożliwiającego zabezpieczenie agregowanych danych poprzez zastosowanie wysokiej dostępności (HA) systemów informatycznych. Przedstawione rozwiązanie pozwala zabezpieczyć centralny system bazodanowy oraz zwirtualizowane maszyny serwerowe poprzez wykorzystanie skalowalnego środowiska składającego się z fizycznych serwerów oraz macierzy dyskowych. Autorzy pracy skupiają się na zapewnieniu ciągłości działania systemów oraz na minimalizacji ryzyka awarii związanych z dostępnością systemu analizy danych eksploatacyjnych.
8
Content available Schengen Information System (SIS)
EN
The article discusses the principles of functioning of one of the largest databases in the world – the Schengen Information System (SIS). The article describes the history of the creation of the system, its genesis, and the goals it is supposed to achieve. The system's evolution was described, particularly the development of the second-generation system (SIS II). The article presents the basic functionalities of the system and its role in ensuring security and public order. The article presents the definition issues related to information and IT systems.
EN
Changes that are taking place in the surrounding environment have never before been so extensive and so dynamic. In addition, the environment to which these changes relate has also never before been so multifaceted, ambiguous, multidimensional and such full of multimedia. Man put in the face of such changes may more or less consciously compromise his safety. The reason may be insufficient knowledge, lack of proper preparation and resources appropriate to provide the right conditions for safe work, communication and even for safe life from the perspective of an individual as well as a person in a family, group in even a nation. Implementation of regulations contained in the Regulation of the European Parliament and of the Council (EU) of April 27, 2016 on the protection of individuals with regard to the processing of personal data and on the free flow of such data, and repealing Directive 95/46 for everyday use (colloquially referred to as: GDPR) caused special attention focused on security in connection with the processing of personal data. This article is the first in the series. It is entitled “Security of personal data. Part I – Specificity of Determinants of Personal Identity in the 21st Century. „The author presents in it the characteristic properties of personal data broken down into areas functioning in superposition2 to each other: an organic person, the environment and the technical environment around the person. Another article the author will address at a broad spectrum of issues relating to personal identification information.
PL
Zmiany, jakie zachodzą w otaczającym nas środowisku, nigdy wcześniej nie były tak rozległe i tak dynamiczne. Dodatkowo samo środowisko, ktorego te zmiany dotyczą, także nigdy wcześniej nie było tak wielorodzajowe, wieloznaczne, wielowymiarowe, wieloaspektowe i multimedialne. Człowiek postawiony w obliczu takich zmian może mniej lub bardziej świadomie narażać swoje bezpieczeństwo. Przyczyną może być niedostateczna wiedza, brak odpowiedniego przygotowania i zasobów właściwych dla zapewnienia odpowiednich warunkow dla bezpiecznej pracy, komunikacji, a wręcz dla bezpiecznego życia zarowno z perspektywy pojedynczego człowieka, jak i człowieka w rodzinie, grupie, a nawet w narodzie. Wdrożenie z dniem 25 maja 2018 r. do codziennego użytkowania regulacji zawartych w Rozporządzeniu Parlamentu Europejskiego i Rady (UE) z 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE [19] (potocznie określane jako: RODO) spowodowało zwrocenie szczegolnej uwagi na bezpieczeństwo indywidualne człowieka w związku z przetwarzaniem jego danych osobowych. Niniejszy artykuł jest pierwszym w cyklu. Autor przedstawia w nim charakterystyczne właściwości danych osobowych w podziale na funkcjonujące w superpozycji1 do siebie obszary: osoba organicznie, środowisko wokoł niej oraz jej otoczenie techniczne. Kolejny artykuł autor poświęci zagadnieniom dotyczącym szerokiego spektrum informacji identyfikujących człowieka.
PL
Zmiany, jakie zachodzą w otaczającym nas środowisku, nigdy wcześniej nie były tak rozległe i tak dynamiczne. Dodatkowo samo środowisko, ktorego te zmiany dotyczą, także nigdy wcześniej nie było tak wielorodzajowe, wieloznaczne, wielowymiarowe, wieloaspektowe i multimedialne. Człowiek postawiony w obliczu takich zmian może mniej lub bardziej świadomie narażać swoje bezpieczeństwo. Przyczyną może być niedostateczna wiedza, brak odpowiedniego przygotowania i zasobów właściwych dla zapewnienia odpowiednich warunkow dla bezpiecznej pracy, komunikacji, a wręcz dla bezpiecznego życia zarowno z perspektywy pojedynczego człowieka, jak i człowieka w rodzinie, grupie, a nawet w narodzie. Wdrożenie z dniem 25 maja 2018 r. do codziennego użytkowania regulacji zawartych w Rozporządzeniu Parlamentu Europejskiego i Rady (UE) z 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE [19] (potocznie określane jako: RODO) spowodowało zwrocenie szczegolnej uwagi na bezpieczeństwo indywidualne człowieka w związku z przetwarzaniem jego danych osobowych. Niniejszy artykuł jest pierwszym w cyklu. Autor przedstawia w nim charakterystyczne właściwości danych osobowych w podziale na funkcjonujące w superpozycji1 do siebie obszary: osoba organicznie, środowisko wokoł niej oraz jej otoczenie techniczne. Kolejny artykuł autor poświęci zagadnieniom dotyczącym szerokiego spektrum informacji identyfikujących człowieka.
EN
Changes that are taking place in the surrounding environment have never before been so extensive and so dynamic. In addition, the environment to which these changes relate has also never before been so multifaceted, ambiguous, multidimensional and such full of multimedia. Man put in the face of such changes may more or less consciously compromise his safety. The reason may be insufficient knowledge, lack of proper preparation and resources appropriate to provide the right conditions for safe work, communication and even for safe life from the perspective of an individual as well as a person in a family, group in even a nation. Implementation of regulations contained in the Regulation of the European Parliament and of the Council (EU) of April 27, 2016 on the protection of individuals with regard to the processing of personal data and on the free flow of such data, and repealing Directive 95/46 for everyday use (colloquially referred to as: GDPR) caused special attention focused on security in connection with the processing of personal data. This article is the first in the series. It is entitled “Security of personal data. Part I – Specificity of Determinants of Personal Identity in the 21st Century. „The author presents in it the characteristic properties of personal data broken down into areas functioning in superposition2 to each other: an organic person, the environment and the technical environment around the person. Another article the author will address at a broad spectrum of issues relating to personal identification information.
EN
Purpose: On 25.05.2018, Regulation (EU) 2016/679 of the European Parliament and of the Council on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (GDPR) entered into force. This act established new obligations for controllers and other data processors, and their proper implementation can often be a challenge, especially in light of the system of criminal sanctions in cases of non-compliance. The goal of this article is to discuss challenges and consequences in the e-commerce sector related to the changes in personal data protection laws in the industry. Design/methodology/approach: The deliberations are based on the related subject literature and an analysis of the legal provisions applicable in the area under discussion. Findings: The main challenge faced by entrepreneurs is ensuring the safety of personal data at an appropriate level in relation to their potential breaches. This approach is based on technological neutrality and risk, and it results in the requirements to be met by entrepreneurs to become more flexible, and for the implemented protection measures to be relativized. Practical implications: The simplifications introduced by the GDPR are beneficial for small- and medium-sized entrepreneurs for whom data processing is their main activity. It is not required in small organizations, which generate lower costs. Originality/value: The publication discusses the issue from the perspective of the e-commerce industry, explaining in particular the new obligations of controllers, the principles of data processing, and the exercising of data subjects’ rights.
12
Content available remote Deciphering the performance of satellite based daily rainfall products over Zambia
EN
The amount and distribution of precipitation plays a vital role in the management of water resources, agriculture and foodrisk preparedness. Unfortunately, Zambia like many other developing countries is a highly data-scarce country with few and unevenly distributed meteorological stations. The objective of this study was to run a comparative analysis of satellite-based rainfall products (SRPs) and gauge data to ascertain the reliability of using SRPs for daily rainfall measurements in Zambia. The four daily SRPs examined in this study include the following: The Tropical Applications of Meteorology using Satellite and ground-based observations version 3 (TAMSATv3), Precipitation Estimation from Remotely Sensed Information using Artifcial Neural Networks (PERSIANN), the Climate Hazards group InfraRed Precipitation with Station data version 2 (CHIRPSv2.0), and the African Rainfall Climatology Version 2 (ARCv2). SRPs were compared to rain gauge data from 35 meteorological, agrometeorological, and climatological stations in Zambia for the period 1998–2015. Statistical analyses were extensively carried out at temporal scales inter alia daily, monthly, seasonal and annual. Comparisons were also done for three stations lying at the highest, middle and lowest elevations to examine the ability of SRPs to capture precipitation occurrences on complex topography. Strong coefcient of determination (>0.9) of all the SRPs and gauge data were found at the monthly scale even over multifaceted topography. However, the ability of these products to capture rain gauge data at daily, seasonal and annual scales difers markedly. Specifcally, PERSIANN outperforms all the other SRPs at all scales, CHIRPSv2.0 is rated second, followed by TAMSATv3 and ARCv2, respectively. These results suggest that PERSIANN can reliably be used in studies that seek to estimate rainfall in data-sparse regions of Zambia at any temporal scale and arrive at similar results to rain gauge data.
EN
This article presents selected issues related to the elaboration of the method used to the organization of data flow in the business entity with the assistance of data flow diagram and the theory of queues. The aim of this work is to create a method, to visualize processes in business entity in the form of data flow diagrams and to determine the weakest points in data flow in the business entity using the theory of queues as well as to propose solutions improving this process.
14
Content available Smart mining communication systems
EN
Polish industry stands at the threshold of the 4th Industrial Revolution, whose core is data collected from manufacturing and exploitation processes. The number of the devices that are capable of communication increases exponentially. These facts imply a constant evolution of automated systems, intelligent data analysis, and methods for their reliable and efficient transmission. The current rapid development of communication technologies mainly focuses at the transmission of digital data. Digital data is most often sent within separated hardware segments of business management structures, for the control and monitoring of machines, devices, and processes. At the lowest levels, fieldbuses prevail, from which data is aggregated and transmitted, often by Ethernet protocols, to the level of enterprise branch servers. Then branches connect to the central structures using encrypted tunnels created within the Internet. The whole structure is exposed to a number of threats related to the presence of typical failures, disruptions, as well as actions leading to the data mismatch or transmission failures. A similar state of needs and threats in the field of acquisition and transmission of digital data occurs in Polish mining. The problem of the complexity of communication structures, including sensory networks and battery-powered wireless sensors, becomes a part of mining technology and the processing of raw materials. Development processes of sensory networks are mainly focused on its reliability, followed by performance. For this reason, as well as bearing in mind the reduction of the costs of building the communication infrastructure, networks with mesh topology develop, which are characterized by high transmission reliability due to its multi-redundant structure. This article describes the development of one of the latest communication protocols SSKIR, intended for use in mesh networks.
PL
Polski przemysł stoi u progu 4 Rewolucji Przemysłowej, której trzon stanowią dane pochodzące z procesów wytwórczych i eksploatacyjnych. Liczba urządzeń zdolnych do komunikacji rośnie wykładniczo. Fakty te implikują stałą ewolucję systemów zautomatyzowanej, inteligentnej analizy danych i metod ich niezawodnej oraz wydajnej transmisji. Obecny, gwałtowny rozwój technik komunikacyjnych dotyczy przede wszystkim transmisji danych cyfrowych. Dane cyfrowe przesyłane są najczęściej w ramach wyraźnie wyróżnionych segmentów sprzętowych struktur kierowania przedsiębiorstwem, sterowania i monitorowania maszyn, urządzeń oraz procesów. Na najniższych poziomach dominują magistrale polowe, z których dane są agregowane i przesyłane, często protokołami ethernetowymi, na poziom serwerów oddziałów przedsiębiorstwa. Następnie oddziały łączą się ze strukturami centralnymi za pomocą szyfrowanych tuneli tworzonych w ramach sieci Internet. Struktura ta narażona jest na szereg zagrożeń związanych z obecnością typowych awarii, zakłóceń, jak i celowych działań prowadzących do zawłaszczenia danych lub unieruchomienia transmisji. Podobny stan potrzeb i zagrożeń w zakresie akwizycji i transmisji danych cyfrowych sygnalizuje polskie górnictwo. W ramach procesów wydobywczych i przeróbczych surowców skalnych coraz częściej napotyka się na problem złożonych struktur komunikacyjnych, w tym sieci sensorycznych obejmujących czujniki bezprzewodowe zasilane bateryjnie. W ramach sieci sensorycznych główny nacisk kładziony jest na jej niezawodność, a w dalszej kolejności na wydajność. Z tego powodu, oraz mając na uwadze redukcję kosztów budowy infrastruktury komunikacyjnej, rozwija się sieci o topologii kratownicowej (ang. mesh), charakteryzujące się wysoką niezawodnością transmisji dzięki strukturze multiredundantnej. W niniejszym artykule opisano rozwój jednego z najnowszych protokołów komunikacyjnych SSKIR, przeznaczonego do zastosowań w sieciach kratownicowych.
15
Content available remote Linguistic summaries of graph databases in customer relationship management (CRM)
EN
The paper concentrates on data models that differ from the traditional relational one by Codd (1970). In particular, we are interested in processing graph databases (graph datasets) without any pre-configured structure, in which graph nodes may represent different objects and graph edges - relations between them. In this approach, the linguistic summarization methods for graph datasets are introduced, and diferences for these methods with respect to traditional relational approach are shown, commented and improved in comparison to the preceding proposition (Strobin, Niewiadomski, 2016). The novelty of the paper is mostly the new form for summaries: Multi-Subject linguistic summaries of graph databases, previously introduced for relational databases (Superson, 2018).
EN
The article describes important issues related to obtaining fundamental information used in the maritime spatial planning process. It presents practically aproached selected results of undertaken work, where the quality of spatial information may affect the decisions and final results of study works, therefore geoinformation is extremely important.
17
Content available Guidelines for recording transport event logs
EN
A process is an ordered set of related activities taking place in a given time. Processes are present in all branches of the economy, engineering, science, etc. Due to the huge amount of data produced the rapid development of data mining techniques has been observed. Similar methods are also used in the context of processes and are called process mining. The main task of process mining is to create a process model, which is used to reason about the process and to make decisions inside it. The process model may be used to discuss responsibilities, simulations, predictions, etc. The main data structures in process mining are event logs. It is always very important to have correct data which makes creating a reliable process model possible. In this paper the basic guidelines for recording such event logs have been described and conclusions were drawn. The main focus of this research was transport problems.
EN
The article deals with the research on the impacts of waste incineration processes on the environment within a particular region by the means of mathematical statistics. The area of interest for this case study considers the aspects of practical application of using the above methods and principles in order to reduce the environmental impacts of waste incineration process in the concrete region. The Pearson correlation coefficient rxy = 0.54 indicates that there is a moderate linear relationship, presented by a direct proportion between the values of incinerated waste quantity and the quantity values of produced heat. The statistics results show that the incineration during a one-year period produces about 15,266 tons of plastic and electrical components, and will release about 590,000 GJ of energy and about 199,000 tons of steam and 287 tons of other emissions with only 3 milligrams of dioxins. The mathematical statistics is used to analyse, and subsequently adjust and improve the waste incineration process in order to achieve the desired parameter values, specifically the calorific values, the amount of heat produced, and the amount of generated steam and air pollutants. The results of mathematical statistics show that there is a direct relationship between the amount of incinerated waste (negative aspect) and the production of electricity (positive), but also the amount of heat produced (positive) and the amount of produced flue gas and ash (negative aspect). The environmental assessments are an important step in building and implementing Environmental Management System (EMS), which consists of the development and evaluation of the analysis followed by the adoption of measures to remedy the deficiencies. The aim of the analysis of the environmental situation within the region of the case study company is a fact-finding in the field of protection of environment that affects the production and non-production operations, and should be monitored the manufacturing practice compliance of the company with the current legislation, the status of operational documentation, the status of internal and external communications in the area of the environmental protection, the responsibilities and liabilities between departments and employees.
PL
W artykule omówiono wpływ procesów spalania odpadów na środowisko w danym regionie za pomocą statystyk matematycznych. Obszar zainteresowania niniejszego studium przypadku uwzględnia aspekty praktycznego zastosowania powyższych metod i zasad w celu zmniejszenia wpływu na środowisko procesu spalania odpadów w konkretnym regionie. Współczynnik korelacji Pearsona rxy = 0,54 wskazuje, że istnieje umiarkowana liniowa zależność, wprost proporcjonalna, między ilością spalonych odpadów a ilością wytworzonego ciepła. Wyniki analizy statystycznej pokazują, że spalarnia w ciągu jednego roku generuje około 15 266 ton odzyskanych elementów plastikowych i elektrycznych, około 590 000 GJ energii, około 199 000 ton pary, 287 ton innych emisji przy zaledwie 3 miligramach dioksyn. Statystyka matematyczna służy do analizy, a następnie dostosowania i udoskonalenia procesu spalania odpadów w celu osiągnięcia pożądanych wartości parametrów, w szczególności wartości opałowej, ilości wytwarzanego ciepła i pary oraz zanieczyszczeń powietrza. Wyniki statystyki matematycznej pokazują, że istnieje bezpośredni związek między ilością spalanych odpadów (aspekt negatywny) a produkcją energii elektrycznej (aspekt pozytywny), ale także ilością wytworzonego ciepła (aspekt pozytywny) i ilością wytworzonych gazów spalinowych i popiołów (aspekt negatywny). Oceny środowiskowe są ważnym krokiem w budowaniu i wdrażaniu Systemu Zarządzania Środowiskiem, który polega na opracowaniu i ocenie analizy, a następnie przyjęciu środków mających zaradzić niedociągnięciom. Celem analizy sytuacji środowiskowej w regionie firmy ze studium przypadku jest ustalenie stanu faktycznego w zakresie ochrony środowiska, które ma wpływ na działalność produkcyjną i nieprodukcyjną. To powinno być monitorowane zgodnie z praktyką produkcyjną firmy oraz obowiązującym ustawodawstwem, stanem dokumentacji operacyjnej, stanem komunikacji wewnętrznej i zewnętrznej w zakresie ochrony środowiska, odpowiedzialności między działami i pracownikami.
PL
Cyfryzacja objęła już niemal wszystkie dziedziny gospodarki, przyczyniając się do rozwoju przedsiębiorstw. Nieocenione znaczenie ma w przypadku firm dysponujących infrastrukturą sieciową, w tym spółek wodociągowych. Jednakże urządzenia cyfrowe, podobnie jak analogowe, są narażone na zewnętrzną ingerencję – manipulowanie licznikami wody po sforsowaniu przewidzianych zabezpieczeń. Dlatego troska o bezpieczeństwo danych odczytowych musi być priorytetem.
EN
Microsoft Corporation products have overwhelmed almost all organiza-tions around the world even beside other operating systems like UNIX, Ubuntu and others. MS Office software products in particular, have being used widely in big portion of our work and business. In specific, MS Access and Excel are very famous and so usable software in between other Microsoft office products. Many similarities are shared between Access and Excel, meanwhile, many key differences are worth to point them out, too. Mainly, this research spotlights on primarily motivated topic of how they can manage data as they have been designed for. The mission of this research is to show how to employee MS Access and Excel in the right way in business work after indicating strength and weaknesses of both of them. Thus, we need to fulfill the right and suitable enough choice between Access and Excel that meets our business work requirements. A detailed list of significant features and key points are discussed and compered of both software leads to conducted proper software use.
first rewind previous Strona / 4 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.