Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 181

Liczba wyników na stronie
first rewind previous Strona / 10 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  analiza danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 10 next fast forward last
PL
W artykule przedstawiono możliwość zastosowania niskobudżetowego skanera LiDAR zaimplementowanego w smartfonie iPhone 13 Pro do kontroli prac w głębionym szybie górniczym. Celem badań było określenie przydatności oraz dokładności wygenerowanych modeli 3D. Badania przeprowadzono na obiekcie powierzchniowym będącym makietą szybu. Na podstawie walidacji zebranych danych, z użyciem profesjonalnego skanera, stwierdzono możliwość zastosowania smartfona iPhone 13 Pro do zadań niewymagających wysokiej dokładności. Na podstawie kontroli otrzymanych danych pomiarowych stwierdzono, że testowany LiDAR zapewnia pomiary odległości do 5 m z klasą dokładności 2,5, co przy jednoczesnej rejestracji z kamery/aparatu fotograficznego smartfona zapewnia szybkie pozyskanie trójwymiarowego odwzorowania badanego obiektu z przypisaną kolorystyką i teksturą materiału konstrukcyjnego.
EN
Article aims to present possibility of application low-cost LiDAR scanner of iPhone 13Pro for workings inspections in mining shaft sinking process. Main goal of research was to verify accuracy and usefulness of generated 3D models. Measurements were conducted inside model of mining shaft on the surface. Based on validation, conducted with use of professional TLS, iPhone 13 Pro LiDAR scanner usefulness was proved for inspections that don’t need high accuracy. Tested iPhone 13 Pro LiDAR scanner measures up to 5m with accuracy class 2,5. With simultaneous camera recording provides quick triaxial reflection of object with color and texture of material.
EN
The article presents the results of a statistical analysis of adhesive joints with identical structural and material factors in relation to technological factors. Four types of adhesive joints were made: butt joints, lap joints, scarf joints and wedge joints. The joined materials were pine and oak wood. Each type of adhesive joint was joined in the following wood configurations: pine-pine, pine-oak, oak-oak. The technological factors were the type of adhesive, the humidity of the wood and the surface preparation of the samples. The U Mann-Whitney test was used to perform the statistical analysis. Results of statistical tests showed the influence of the used adhesive on pine-oak butt joints and wood moisture on pine-oak butt joints. Furthermore, the effect of wood configurations on the strength for each of the tested adhesive joints was compared using the Dunn’s statistical test. The test showed that there were not statistical differences between the joints in configurations pine-pine and pine-oak.
PL
W artykule przedstawiono wyniki analizy statystycznej połączeń klejowych o jednakowych czynnikach konstrukcyjnych i materiałowych względem czynników technologicznych. Wykonano 4 rodzaje konstrukcji połączeń klejowych: doczołowe, zakładkowe, skośne, klinowe. Materiałami łączonymi było drewno sosny i dębu. Każdy rodzaj połączenia klejowego łączono w konfiguracji drewna: sosna-sosna, sosna-dąb, dąb-dąb. Czynnikami technologicznymi był rodzaj kleju, wilgotność drewna oraz przygotowanie powierzchni próbek. Do wykonania testu statystycznego wykorzystano test U Manna-Whitneya. Analiza statystyczna wykazała wpływ rodzaju kleju na połączenia doczołowe sosna-dąb oraz wilgotności drewna na połączenia skośne sosna-dąb. Ponadto porównano wpływ gatunku drewna na wytrzymałość każdego z badanych połączeń klejowych przy pomocy testu Dunna. Test wykazał, że połączenia sosna-sosna nie różnią się statystycznie od połączeń sosna-dąb.
3
EN
The aim of this paper is to develop a container ship traffic model for port simulation studies. Such a model is essential for terminal design analyses and testing the performance of optimization algorithms. This kind of studies requires accurate information about the ship stream to build test scenarios and benchmark instances. A statistical model of ship traffic is developed on the basis of container ship arrivals in eight world ports. The model provides three parameters of the arriving ships: ship size, arrival time and service time. The stream of ships is divided into classes according to vessel sizes. For each class, service time distributions and mixes of return time distributions are provided. A model of aperiodic arrivals is also proposed. Moreover, the results achieved are used to compare port specific features.
EN
Recently, electricity consumption forecasting has attracted much research due to its importance in our daily life as well as in economic activities. This process is seen as one of the ways to manage future electricity needs, including anticipating the supply-demand balance, especially at peak times, and helping the customer make real-time decisions about their consumption. Therefore, based on statistical techniques (ST) and/or artificial intelligence (AI), many forecasting models have been developed in the literature, but unfortunately, in addition to poor choice of the appropriate model, time series datasets were used directly without being seriously analyzed. In this article, we have proposed an efficient electricity consumption prediction model that takes into account the shortcomings mentioned earlier. Therefore, the database was analyzed to address all anomalies such as non-numeric values, aberrant, and missing values. In addition, by analyzing the correlation between the data, the possible periods for forecasting electricity consumption were determined. The experimental results carried out on the Individual Household Electricity Power Consumption dataset showed a clear superiority of the proposed model over most of the ST and/or AI-based models proposed in the literature.
EN
Cybersecurity has benefitted from Artificial Intelligence (AI) technologies for attack detection. However, recent advances in AI techniques, in tandem with their misuse, have outpaced parallel advancements in cyberattack classification methods that have been achieved through academic and industry-led efforts. We describe the shift in the evolution of AI techniques, and we show how recent AI approaches are effective in helping an adversary attain his/her objectives appertaining to cyberattacks. We also discuss how the current architecture of computer communications enables the development of AI-based adversarial threats against heterogeneous computing platforms and infrastructures.
EN
Nowadays data analysis of any kind becomes a piece of art. The same happens with the teaching processes of statistics, econometrics and other related courses. This is not only because we are facing (and are forced to) teach online or in a hybrid mode. Students expect to see not only the theoretical part of the study and solve some practical examples together with the instructor. They are waiting to see a variety of tools, tutorials, interactive laboratory instructions, books, exams online. In this study I am going to show the latest technical solutions for instructors using R and/or Python in their online data analysis labs.
PL
Obecnie analiza danych w różnym środowisku jest zwykle małym dziełem sztuki. To samo dzieje się z procesem dydaktycznym w tej dziedzinie (np. statystyką, ekonometrią itp.). Przyczyną tego stanu rzeczy jest nie tylko fakt, iż w dydaktyce wykorzystujemy e-learning, distance-learning, lub tylko narzędzia online wspomagające co nieco tradycyjne nauczanie. Stopień skomplikowania problemu oraz jego techniczne i programistyczne rozwiązania stanowią spore wyzwanie. Stąd oczekiwania studentów są większe niż dotąd, a samo tradycyjne wprowadzenie teoretyczne do problemów analitycznych (wykład) i ich rozwiązywanie (laboratorium, ćwiczenia) nie jest wystarczające. Instruktor powinien w swojej pracy laboratoryjnej wykorzystywać szereg narzędzi interaktywnych, tj. zadań, tutoriali, instrukcji, egzaminów online. W tej pracy zaprezentowane zostaną najpopularniejsze i najnowsze rozwiązania techniczne z zakresu e-nauczania analizy danych z wykorzystaniem języka R (i/lub Pythona).
7
Content available Monitorology – the Art of Observing the World
EN
We focus on the art of observing the world by electronic devices such as sensors and meters that, in general, we call monitors. We also define main monitoring objectives and pose five challenges for effective and efficient monitoring that still need a lot of research. In the era where compute power like electricity is easily available and easy to use across the globe, and big data is generated in enormous amounts at ever-increasing rates, the question, what to monitor and how, will become ever more relevant to save the world from flood of meaningless, dumb data, leading frequently to false conclusions and wrong decisions whose impact may range from a minor inconvenience to loss of lives and major disasters.
8
EN
This article analyses the latency data that occur during data transmission using the actual telecommunications network in the building. This study is aimed at checking the possibility of using telecommunications as an alternative to the currently used communications in intelligent buildings in order to ultimately move as many elements as possible to the cloud or disperse the system across all building devices. The delay study allows you to determine what delays the system will work with, which is necessary in real-time systems.
PL
Ten artykuł przedstawia analizę danych opóźnień występujących podczas transmisji danych z wykorzystaniem rzeczywistej sieci telekomunikacyjnej w budynku. Badanie to ma na celu sprawdzenie możliwości wykorzystania telekomunikacji jako alternatywę obecnie wykorzystywanych łączności w inteligentnych budynkach aby docelowo przenieść jak najwięcej elementów do chmury lub rozproszyć system po wszystkich urządzeniach budynkowych. Badanie opóźnień pozwala określić z jakimi opóźnieniami będzie pracował system co jest niezbędne w systemach czasu rzeczywistego.
9
Content available remote Wpływ kondycji łożysk na utrzymanie procesów produkcyjnych
PL
Współczesne aspekty Przemysłu 4.0 ukierunkowane są na analizę danych, ale również na podejmowanie odpowiednich decyzji dotyczących produkcji biznesowej oraz na obszary związane z predykcją uszkodzeń elementów maszyn, które decydują o zachowaniu ciągłości procesów produkcyjnych.
10
Content available remote Początki automatyzacji
PL
Automatyzacja produkcji to kierunek rozwoju firm produkcyjnych, który – jak głosi definicja – polega na znacznym ograniczeniu lub całkowitym zastąpieniu ludzkiej pracy fizycznej i umysłowej przez pracę maszyn. Automatyzację w swojej fabryce zapoczątkował Henry Ford, który postanowił zoptymalizować produkcję i obniżyć koszty wytwarzania samochodu. Przeszkolił i ustawił osoby pracujące w jego fabryce tak, aby wykonywały poszczególne i powtarzalne elementy składowe np. silnika czy skrzyni biegów, a nie całe elementy, jak miało to miejsce wcześniej. Założeniem takiej pracy było zwiększenie skali produkcji oraz obniżenie kosztu samochodu tak, by każdego było stać na ten rewolucyjny jak na owe czasy wynalazek. Pozwoliło to Fordowi sprzedawać więcej aut, gdyż wcześniej na taki luksus mogło pozwolić sobie niewielu. Tak zapoczątkowana automatyzacja rozwija się od przełomu lat 30/40 XX w.
PL
Analizy przestrzenne prac prowadzonych przez przedsiębiorstwo wod-kan to źródło informacji niezbędnych w procesie zarządzania firmą. Taki sposób ich prezentacji jest znacznie atrakcyjniejszy niż zestawień tabelarycznych czy wykresów.
EN
The purpose of this paper was to develop a methodology for diagnosing the causes of die-casting defects based on advanced modelling, to correctly diagnose and identify process parameters that have a significant impact on product defect generation, optimize the process parameters and rise the products’ quality, thereby improving the manufacturing process efficiency. The industrial data used for modelling came from foundry being a leading manufacturer of the high-pressure die-casting production process of aluminum cylinder blocks for the world's leading automotive brands. The paper presents some aspects related to data analytics in the era of Industry 4.0. and Smart Factory concepts. The methodology includes computation tools for advanced data analysis and modelling, such as ANOVA (analysis of variance), ANN (artificial neural networks) both applied on the Statistica platform, then gradient and evolutionary optimization methods applied in MS Excel program’s Solver add-in. The main features of the presented methodology are explained and presented in tables and illustrated with appropriate graphs. All opportunities and risks of implementing data-driven modelling systems in high-pressure die-casting processes have been considered.
EN
The aim of the thesis is to create a model defining the style of play of a team playing in the Polish Ekstraklasa. The limitation to the highest Polish league class is dictated by the differences in the style of play depending on the league. The model is to be created on the basis of data about the team's game. To build the model, supervised and unsupervised learning techniques will be used and compared to find the relationship between the team's statistics and the determination of its playing style.
15
Content available remote Wstępne przetwarzanie danych
PL
Zbiory danych mogą stać się cennym źródłem wiedzy. Aby tak się jednak stało, musimy we właściwy sposób podejść do ich analizy. Proces analizy danych składa się z kilku etapów (opisanych w nr. 1/2020 „Utrzymania Ruchu” w artykule Analiza dużych zbiorów danych). Kluczowym etapem jest etap wstępnego przetwarzania danych, który bezpośrednio poprzedza etap eksploracji i jest często etapem najbardziej pracochłonnym.
16
Content available remote Analiza dużych zbiorów danych
PL
Obecnie prawie każdy proces, w tym produkcyjny, generuje ogromne ilości danych. Gromadzimy je, czy jednak potrafimy odpowiednio wykorzystać? Jest to szczególnie ważne w kontekście Przemysłu 4.0, w którym dane są najważniejszym „surowcem”, a efektywne ich wykorzystanie jest kluczowe, głównie za sprawą wiedzy, którą można z nich pozyskać.
EN
The article presents methods of mapping data, information and knowledge value stream in order to identify the flow of key processes and to return knowledge exchange in the examined company. One large production company was audited. The amount of incoming to the company and processing information is so large that it must implement methods to improve their flow. Problems with knowledge exchange associated with high rotation contributed to analyzing the problem.
EN
In the first article in this series, the research methodology concerning the analysis of inspection errors based on MSA attribute study data set for the improvement purposes was presented. In the final article in the series, applying the methodology in practice step by step was presented. Instructions for correct performance of the analysis, in compliance with the author's procedure, were determined. Both advantages and disadvantages of the developed approach were underlined.
EN
In various biomedical applications designed to compare two groups (e.g. patients and controls in matched case-control studies), it is often desirable to perform a dimensionality reduction in order to learn a classification rule over high-dimensional data. This paper considers a centroid-based classification method for paired data, which at the same time performs a supervised variable selection respecting the matched pairs design. We propose an algorithm for optimizing the centroid (prototype, template). A subsequent optimization of weights for the centroid ensures sparsity, robustness to outliers, and clear interpretation of the contribution of individual variables to the classification task. We apply the method to a simulated matched case-control study dataset, to a gene expression study of acute myocardial infarction, and to mouth localization in 2D facial images. The novel approach yields a comparable performance with standard classifiers and outperforms them if the data are contaminated by outliers; this robustness makes the method relevant for genomic, metabolomic or proteomic high-dimensional data (in matched case-control studies) or medical diagnostics based on images, as (excessive) noise and contamination are ubiquitous in biomedical measurements.
EN
The paper indicates the significance of the problem of foundry processes parameters stability supervision and assessment. The parameters, which can be effectively tracked and analysed using dedicated computer systems for data acquisition and exploration (Acquisition and Data Mining systems, A&D systems) were pointed out. The state of research and methods of solving production problems with the help of computational intelligence systems (Computational Intelligence, CI) were characterised. The research part shows capabilities of an original A&DM system in the aspect of selected analyses of recorded data for cast defects (effect) forecast on the example of a chosen iron foundry. Implementation tests and analyses were performed based on selected assortments for grey and nodular cast iron grades (castings with 50 kg maximum weight, casting on automatic moulding lines for disposable green sand moulds). Validation tests results, applied methods and algorithms (the original system’s operation in real production conditions) confirmed the effectiveness of the assumptions and application of the methods described. Usability, as well as benefits of using A&DM systems in foundries are measurable and lead to stabilisation of production conditions in particular sections included in the area of use of these systems, and as a result to improvement of casting quality and reduction of defect number.
first rewind previous Strona / 10 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.