Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 112

Liczba wyników na stronie
first rewind previous Strona / 6 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  przetwarzanie danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 6 next fast forward last
EN
The paper considers the problem of information credibility. Currently, such a problem is affecting scientists, as well as ordinary people who are dependent on information networks. Hence, the Author formulates three postulates that should be observed in dealing with the quality of information: P1 – identify the source of information, P2 – determine the level of credibility of the information source, P3 – recognize the purpose of information dissemination. The first two postulates are universal because they are applicable to all the users of information. The third becomes more and more important in the social and political choices of citizens. In scientific work, empirical facts are being transformed to empirical data (increasingly, to the form of big data) which are results of advanced registration and processing by means of technical and information science tools, such as: a) technical transforming the empirical signal into information; b) statistical selection of signals, and, next, statistical processing of the received data; c) assessment of results for suitability in applications. Other “epistemic” factors, however, are also involved, as: d) conceptual apparatus used for idealization (and then for interpretation), e) assessment of the results in terms of compliance with the epistemological (sometimes, also commercial or ideological) position. All these factors should be the subject of careful study of errology proposed by P. Homola.
PL
Rozważany jest problem wiarygodności informacji. Problem ten dotyka zarówno naukowców, jak i zwykłych ludzi zależnych od sieci informacyjnych. Sformułowano zatem trzy postulaty, które są niezbędne do dbania o jakość informacji: P1 – zidentyfikowanie źródła informacji, P2 – określenie poziomu wiarygodności źródła informacji, P3 – ustalenie celu rozpowszechniania informacji. Pierwsze dwa postulaty są uniwersalne, ponieważ dotyczą wszystkich użytkowników informacji. Trzeci staje się coraz ważniejszy w wyborach społecznych i politycznych obywateli. W pracy naukowej fakty empiryczne przekształcane są w dane empiryczne (coraz częściej w postaci tzw. big data), które są wynikiem coraz bardziej zaawansowanego rejestrowania i przetwarzania za pomocą narzędzi technicznych i informatycznych, takich jak: a) techniczne przekształcenie sygnału empirycznego w informację, b) statystyczny dobór sygnałów i dalsze przetwarzanie statystyczne otrzymanych danych, c) ocena wyników pod kątem przydatności w zastosowaniach. W grę wchodzą jednak także inne czynniki „epistemiczne”, takie jak: d) aparat pojęciowy wykorzystywany do idealizacji (a następnie interpretacji), e) ocena wyników pod kątem zgodności z pozycją epistemologiczną (czasem także komercyjną i ideologiczną). Wszystkie te czynniki powinny być przedmiotem dokładnego studium tzw. errologii zaproponowanej przez P. Homola.
PL
Premiera nowej kasowej produkcji o superbohaterach zbiegła się z publikacją tego artykułu. Żal nie wykorzystać takiej analogii, bo w świecie nowoczesnych technologii nadal jest ogromna przestrzeń na wykorzystanie pozytywnych supermocy. W filmie Liga Sprawiedliwości Z. Snydera pięcioro herosów łączy siły, aby wprowadzić ład i porządek w zagrożonym świecie. W zdigitalizowanej rzeczywistości istnieje potrzeba równie jednomyślnej zespołowości.
3
Content available remote Wstępne przetwarzanie danych
PL
Zbiory danych mogą stać się cennym źródłem wiedzy. Aby tak się jednak stało, musimy we właściwy sposób podejść do ich analizy. Proces analizy danych składa się z kilku etapów (opisanych w nr. 1/2020 „Utrzymania Ruchu” w artykule Analiza dużych zbiorów danych). Kluczowym etapem jest etap wstępnego przetwarzania danych, który bezpośrednio poprzedza etap eksploracji i jest często etapem najbardziej pracochłonnym.
4
Content available Utrzymanie ruchu a Przemysł 4.0
PL
Utrzymanie ruchu (UR) to codzienna, systematyczna praca, związana z wykonywaniem zadań w celu zapobiegania degradacji stanu technicznego maszyn i urządzeń oraz występowaniu awarii, a gdy już do nich dojdzie – usuwanie degradacji w celu przywrócenia środkom produkcji ich możliwie najlepszej funkcjonalności.
PL
Cloud computing jako sposób dostępu poprzez sieć komputerową do współdzielonych i łatwo konfigurowalnych zasobów obliczeniowych (sieci, serwerów, aplikacji czy usług), które na żądanie i dynamicznie mogą być przydzielane i zwalniane, przy równoczesnym minimalnym zaangażowaniu obsługi technicznej zyskuje na znaczeniu również w odniesieniu do procesów logistycznych, których informatyzacja powoduje pojawienie się w przestrzeni wirtualnej danych (użytkownika, konsumenta etc.) w coraz szerszym zakresie. Powyższe procesy, choć wydają się nieuniknione, zasługują na przyjrzenie się im z szerszej perspektywy – psychologicznej, socjologicznej jak również, a i może przede wszystkim, prawnej. Celem artykułu jest wskazanie na zagrożenia, które wiążą się z przetwarzaniem danych przy pomocy chmury obliczeniowej oraz jak powyższe zagadnienie jest ujmowane przez różne systemy prawne.
6
Content available A quaternion clustering framework
EN
Data clustering is one of the most popular methods of data mining and cluster analysis. The goal of clustering algorithms is to partition a data set into a specific number of clusters for compressing or summarizing original values. There are a variety of clustering algorithms available in the related literature. However, the research on the clustering of data parametrized by unit quaternions, which are commonly used to represent 3D rotations, is limited. In this paper we present a quaternion clustering methodology including an algorithm proposal for quaternion based k-means along with quaternion clustering quality measures provided by an enhancement of known indices and an automated procedure of optimal cluster number selection. The validity of the proposed framework has been tested in experiments performed on generated and real data, including human gait sequences recorded using a motion capture technique.
EN
This article examines one of the basic issues related to the technique of mobile satellite measurements in railway tracks. This problem concerns the correction of the determined coordinates of the track centerline. The need to perform this operation results from the GNSS receivers positioning at a certain height above the level of the existing track axis, leading to longitudinal and lateral shifts of antennas. The key problem here is the determination of the local horizontal coordinate system in each measured position. For the analysis, the authors defined the directional baseline vector of the measuring platform on the basis of positions given by two satellite antennas, positioned over the pivots of its bogies. This work presents the procedure for determining the corrections values.
PL
W pracy poruszono jedną z podstawowych kwestii związanych z techniką mobilnych pomiarów satelitarnych w torze kolejowym – korygowanie wyznaczonych współrzędnych osi toru. Konieczność przeprowadzenia tej operacji wynika z ustawienia anten GNSS na pewnej wysokości nad poziomem istniejącej osi toru, przy występowaniu jego pochylenia w kierunku podłużnym i poprzecznym. Kluczowym problemem staje się przy tym konieczność określania w każdym punkcie pomiarowym kierunków osi układu współrzędnych w płaszczyźnie poziomej. W omawianej metodzie posłużono się kierunkowym wektorem bazowym, wyznaczonym na podstawie współrzędnych anten usytuowanych nad czopami skrętów obydwu wózków platformy. W pracy przedstawiono procedurę określania wartości korekt.
EN
The article focuses on the field of innovative trends for efficient data processing in the conduct of research of organic soil pollution using a soil air analyzer for surveys of soil contamination in situ at industrial enterprises in Slovakia. The content of the article is a discourse of theoretical knowledge from the field of the geological environment; the authors’ own survey to monitor the processing and evaluation of the measured values obtained (e.g., CO2, CH4, NEL, BTEX). Currently, standard data processing procedures using the software that is supplied have basic or limited functionality, and the processing time is several hours, including manual and repetitive tasks. As we present in the article, the new Windows PowerShell tool is being used more efficiently, reducing the data processing time which represents an 86% time saving. There is currently no suitable or faster way of evaluating the measured data in Slovakia and the Czech Republic.
EN
This paper deals with the data processing in the form of a point cloud scanned using a handheld 3D laser scanner. The aim of the paper was to use this data to create a representative FEM model and compare two different ap¬proaches, one them involved creating a CAD model and the other one did not. The data processing was carried out in the freeware systems MeshLab and Meshmixer and FEM analysis in the software ANSYS Workbench.
PL
Celem prezentowanego cyklu badań było wypracowanie metod i rozwiązań służących do wspomagania procesów decyzyjnych w odlewnictwie i inżynierii materiałowej. W szczególności chodziło o dobór metod przetwarzania danych, formalizmów reprezentacji wiedzy oraz stworzenie algorytmów decyzyjnych, opartych na współczesnych osiągnięciach sztucznej inteligencji, dostosowanych do specyfiki przemysłu odlewniczego i metalurgicznego. Obok rezultatów o charakterze poznawczym, zamierzonym efektem prowadzonych prac była realizacja rozwiązań informatycznych w postaci prototypowych systemów (lub modułów) dedykowanych dla odpowiedniej klasy problemów decyzyjnych.
EN
The aim of this research programme was to develop a series of methods and solutions to support the decision-making process in foundry and materials engineering. The specific problems discussed included the selection of methods for data processing and knowledge representation formalisms, backed up by the creation of decision algorithms based on contemporary achievements of artificial intelligence, tailored to the needs of foundry industry and metallurgy. In addition to the results of a cognitive nature, the intended outcome of the work was the implementation of IT solutions in the form of prototype systems (or modules) dedicated to the appropriate class of decision problems.
PL
W artykule przedstawiono autorską metodę badania reakcji człowieka na dźwięk przestrzenny. Wykorzystano ogólnodostępne urządzenia takie jak sensor Kinect, zestaw dźwięku przestrzennego Creative. Opracowano metodę badawczą, metodę analizy oraz niezbędne scenariusze badawcze. Ponadto zaproponowano dwie ankiety przed i po badaniu. Następnie opracowano wyniki badań, a na ich podstawie sformułowano wnioski.
EN
The article presents the author's method of studying human reaction to spatial sound. Public devices such as: Kinect sensor, Creative surround sound set were used. A research method, method of analysis and necessary research scenarios were developed. In addition, two questionnaires were proposed: before and after the study. Next, the results of the research were developed and the conclusions were formulated on their basis.
EN
Global maritime transport is one of the causes of air pollution. Annex VI of the International Maritime Organisation’s (IMO) International Convention for the Prevention of Pollution from Ships (MARPOL) refers to air pollution. Air pollution is mainly caused by the conversion of energy in internal combustion engines, in particular in the case of transient engine operation. The main pollutant is soot. It is an impure carbon substance of various sizes, resulting from incomplete combustion of hydrocarbons. This document concerns data-based modelling of soot emissions – the main component of exhaust particles – in transient engine operation. In a unique manoeuvring aid system, the prediction of exhaust emissions will become a new element. If the navigator knows the consequences of his actions, the human role will be strengthened in relation to the decision making on energy-efficient and emission-poor vessel traffic, in particular during manoeuvres. Thanks to the mathematical model, the soot formation process during stationary engine operation – at constant speed and load – will be mapped first. The model will then be extended to simulate engine operation and soot formation in the transition phase.
PL
Globalny transport morski jest jedną z przyczyn zanieczyszczenia powietrza. Załącznik VI do Międzynarodowej konwencji o zapobieganiu zanieczyszczeniu morza przez statki (MARPOL) Międzynarodowej Organizacji Morskiej (IMO) odnosi się do zanieczyszczeń powietrza. Zanieczyszczenie powietrza jest głównie powodowane przez konwersję energii w silnikach spalinowych, w szczególności w przypadku przejściowej pracy silnika. Głównym zanieczyszczeniem jest sadza. Jest to zanieczyszczona substancja węglowa różnej wielkości, będąca wynikiem niepełnego spalania węglowodorów. Niniejszy dokument dotyczy modelowania emisji sadzy – głównego składnika cząstek spalin, w pracy silnika w warunkach przejściowych w oparciu o dane. W unikalnym systemie wspomagania manewrów, przewidywanie emisji spalin stanie się nowym elementem. Jeżeli nawigator zna konsekwencje swoich działań, to rola człowieka zostanie wzmocniona w odniesieniu do podejmowania decyzji o energooszczędnym i ubogim w emisje spalin ruchu statków, w szczególności podczas manewrów. Dzięki modelowi matematycznemu,w pierwszej kolejności zostanie odwzorowany proces powstawania sadzy podczas stacjonarnej pracy silnika – przy stałych obrotach i obciążeniu. Następnie model ten zostanie tak rozszerzony, aby umożliwić symulację pracy silnika i powstawania sadzy w fazie przejściowej.
14
Content available Wybrane aspekty wdrażania RODO
PL
Globalizacja i rozwój technologii informacyjnych i komunikacyjnych (ICT) spowodowały istotne zmiany w administracji publicznej i biznesie w Unii Europejskiej. Wprowadzone 25 maja 2018 r. ogólne rozporządzenie o ochronie danych (RODO) uwzględnia zachodzące zmiany, rozsądnie regulując aspekty przetwarzania i ochrony danych. RODO stosuje nowe podejście do oceny ryzyka. Celem niniejszego artykułu jest przedstawienie wybranych zagadnień związanych z wdrażaniem RODO. W pierwszej części artykułu przedstawiono podstawowe założenia RODO. W kolejnej zawarto analizę literatury i przepisów prawnych. Ostatnia część pracy koncentruje się na omówieniu wybranych rekomendacji dotyczących RODO. Opracowanie zawiera zalecenia, które wynikają z przeprowadzonych przez Autora działań związanych z wdrażeniem RODO i pełenieniem funkcji Inspektora Ochrony Danych Osobowych. Zawarte w pracy treści mogą być bezpośrednio wykorzystane zarówno przez osoby odpowiedzialne za ochronę danych, menadżerów, jak i informatyków. Ponadto opracowanie może być przydatne dla wykładowców i studentów podczas zajęć dydaktycznych na wielu kierunkach studiów.
EN
Globalization and development of Information and Communication Technology (ICT) have caused significant changes in public administration and business in the European Union. The General Data Protection Regulation (GDPR), introduced on 25 May 2018, takes into account the implemented changes, reasonably regulating the aspects of data processing and protection. The GDPR applies a new approach to risk assessment. The purpose of this article is to present selected issues related to the implementation of the GDPR. The first part of the article presents the basic assumptions of the GDPR. The next contains an analysis of literature and legal provisions. The last part of the work focuses on discussing selected recommendations regarding the GDPR. The study contains recommendations that result from the activities carried out by the author related to the implementation of the GDPR and his experience as the Inspector of Personal Data Protection. The content contained in the work can be directly used by persons responsible for data protection, managers as well as IT specialists. In addition, the study may be useful for lecturers and students during didactic classes in many fields of study.
PL
Gruntowe pompy ciepła (GPC) wykorzystujące niskotemperaturową energię geotermalną stanowią nowoczesne i cenione źródło ogrzewania i chłodzenia budynków. W ostatnich latach w Europie zastosowanie GPC, przede wszystkim systemów zamkniętych z otworowymi wymiennikami ciepła (OWC), stale wzrasta. GPC umożliwiają redukcję niskiej emisji, a ich przeznaczenie dotyczy zarówno miast, jak i obszarów wiejskich. O efektywności GPC decydują warunki geotermiczne podłoża skalnego, które zależą głównie od budowy geologicznej i warunków hydrogeologicznych, stąd ich rozpoznanie jest zasadnicze dla odpowiedniego projektowania i eksploatacji GPC. Artykuł prezentuje metodykę przetwarzania, analizy i interpretacji danych dotyczących podłoża skalnego dla obszarów miejskich na przykładzie wybranej inwestycji, opracowaną w projekcie Geothermal4PL. Dane pochodzące z tematycznych baz danych, atlasów i map seryjnych zgromadzone zostały w bazie danych o ujednoliconej strukturze umożliwiającej ich analizę przestrzenną z wykorzystaniem GIS. Zgodnie z przyjętym algorytmem wykonano reklasyfikację właściwości litologicznych na geotermiczne oraz obliczono wartości przewodności cieplnej λ [W/m∙K] i jednostkowej wydajności cieplnej qv [W/m] analizowanych skał i gruntów. Na tej podstawie wykonano cztery mapy średniej przewodności cieplnej λ i jednostkowej wydajności cieplnej qv, dla 1800 [godzin pracy/rok], dla przedziałów głębokościowych do 40, 70, 100 i 130 m p.p.t. dla każdej lokalizacji. Wyniki badań umożliwiły charakterystykę przydatności danej lokalizacji dla zastosowania GPC i ocenę potencjału geotermii niskotemperaturowej.
EN
The ground source heat pumps (GSHP) using low temperature geothermal energy are the modern and valuable source of heating and cooling of buildings. Recently, the application of GSHP in Europe, especially the closed loop systems with borehole heat exchangers (BHE) has constantly been growing. The GSHPs provide for the reduction of low emissions, and their application refers to both urban and rural areas. Effectiveness of GSHPs is mainly determined by the geothermal conditions of underground which in turn depend on local geology and hydrogeology, thus their identification is crucial for an appropriate design and exploitation of GSHPs installations. This paper presents the methodology of processing, analysis and interpretation of underground data for urban areas of the selected investment as developed within the framework of the Geothermal 4PL project. Data originating from the thematic databases, atlases and serial maps were gathered in a unified database showing a uniform structure enabling their spatial analysis with use of GIS. According to an algorithm accepted for the sake of the project the reclassification of lithological parameters into the geothermal parameters was performed as well as the values of geothermal conductivity λ [W/m∙K] and geothermal power unit qv [W/m] of analyzed rocks and soils were calculated. Based on the results of calculations four maps of average geothermal conductivity coefficient λ for every investment area were prepared, each for the depth interval up to 40, 70, 100 and 130 metres. The results of the presented research made possible characteristics and an evaluation of the usefulness of selected locations for applications of shallow geothermal energy and GSHPs as well as assessment of shallow geothermal energy potential.
PL
Zgodnie z wymogami zarządzania danymi z wielu systemów, informatyzacja przedsiębiorstw petrochemicznych uległa znaczącym zmianom. Analizie poddano problemy konwencjonalnych metod podejmowania decyzji w przedsiębiorstwach petrochemicznych. W celu ich przezwyciężenia zbadano technologię przetwarzania w chmurze. Technologia ta może pomóc w eksploracji metod optymalizacji wspólnego podejmowania decyzji przy użyciu aplikacji rozproszonego przetwarzania danych MapReduce. Połączenie optymalizacji zarządzania zasobami przedsiębiorstwa petrochemicznego i technologii przetwarzania w chmurze umożliwia wspólne podejmowanie decyzji. Korzysta się tu z zalet równoległego stosowania tej technologii w celu reorganizacji działań osób odpowiedzialnych za decyzje w różnych działach. Dzięki temu podejmujący decyzje mogą poprawić współpracę i uzyskać zoptymalizowane możliwości przetwarzania danych o zasobach przedsiębiorstwa z wielu systemów. Analizując wspólne działanie w połączeniu z procesem informatyzacji wybranego przedsiębiorstwa oraz perspektywy zastosowań, osiągnięto zwiększenie wydajności w wyniku zarządzania przedsiębiorstwem petrochemicznym.
EN
The conventional decision making methods for petrochem. enterprises were analyzed and compared with cloud computing technol. For optimizing the collaborative decision making by using the MapReduce-distributed processing framework. This framework benefited from an advantage of parallel processing the cloud-computing technol. to reorganize the decision members in particular departments. This reorganization allowed decision members of an improvement of the collaboration with each other and achieving an optimized enterprise resource data processing capability from multiple systems.
PL
Przedstawiono autorską koncepcję architektury sekwencjonowania danych pomiarowych o dużej częstości, odbieranych z wielokanałowych układów detekcyjnych w czasie rzeczywistym. Na wstępie omówiono genezę pracy w odniesieniu do rozwoju rozwiązań systemów pomiarowych z równoległym przetwarzaniem danych. Wskazano na najważniejsze korzyści wynikające z zastosowania układu sekwencera. Przeprowadzono dyskusję proponowanej architektury oraz omówiono realizację modelu w języku Matlab w celu doboru parametrów użytkowych implementowanych rozwiązań. Przedstawiono implementację architektury układu sekwencera w systemie diagnostyki gorącej plazmy w tokamaku WEST.
EN
This paper describes developed architecture of the sequencer dedicated for high rate measurement data collected from multiple channels in real time. Introduction presents a brief description and genesis of the project and its achievements in relation to presently existing and used measurements system where parallel data processing is crucial. Authors point out advantages of the developed architecture. Additionally is discussed model of the architecture realized in MATLAB environment in order to select most optimal parameters adjusted to specific processes. Last sections presents implementation of the sequencer architecture in plasma diagnostics measurement system for WEST tokamak.
PL
Samorządy dostosowują się do wymagań unijnego rozporządzenia RODO. Część z nich wciąż nie jest jednak w pełni przygotowana do nowych przepisów. Co najbardziej kuleje?
19
Content available remote RODO – wyzwanie dla branży? Część III
PL
W poprzednich dwóch artykułach starałem się przybliżyć tematykę Rozporządzenia oraz danych osobowych. W aktualnym przyszedł czas na zaprojektowanie swojego własnego systemu ochrony danych osobowych, wymaganej dokumentacji, upoważnień lub powierzeń oraz szacowania i analizy ryzyka. Głównymi założeniami RODO są dwa podejścia: privacy by design oraz privacy by default.
20
Content available remote RODO – wyzwanie dla branży? Część II
first rewind previous Strona / 6 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.