Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 527

Liczba wyników na stronie
first rewind previous Strona / 27 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  uczenie maszynowe
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 27 next fast forward last
PL
Artykuł przedstawia możliwości wykorzystania technik uczenia maszynowego oraz danych teledetekcyjnych w procesie aktualizacji Bazy Danych Obiektów Topograficznych BDOT10k. Badania przeprowadzono na obszarze dzielnicy Dębniki w Krakowie, wykorzystując wysokorozdzielczą ortofotomapę lotniczą, dane z lotniczego skanowania laserowego (ALS) oraz referencyjne dane BDOT10k. Automatyczna detekcja budynków została wykonana w środowisku ArcGIS Pro, z zastosowaniem modelu Deep Learning, co pozwoliło na identyfikację 1351 obiektów budowlanych w porównaniu do 1250 budynków zarejestrowanych w bazie referencyjnej. Przeprowadzono analizę zgodności geometrycznej wykrytych obiektów z danymi BDOT10k oraz ocenę różnic powierzchniowych. Dodatkowo, na podstawie danych ALS oszacowano liczbę kondygnacji budynków, przyjmując wysokość jednej kondygnacji równą 3 m. Uzyskane wyniki wskazują, że integracja danych teledetekcyjnych i algorytmów uczenia maszynowego może stanowić narzędzie wspomagające proces aktualizacji krajowych baz danych przestrzennych.
EN
The article presents the potential of using machine learning techniques and remote sensing data in the process of updating the Topographic Objects Database (BDOT10k). The study was conducted in the Dębniki district of Kraków using highresolution aerial orthophotos, airborne laser scanning (ALS) data, and reference BDOT10k data. Automatic building detection was performed in the ArcGIS Pro environment using a deep learning model, which enabled the identification of 1,351 building objects compared to 1,250 buildings recorded in the reference database. A geometric consistency analysis between the detected objects and the BDOT10k data was carried out, along with an assessment of area differences. In addition, the number of building storeys was estimated based on ALS data, assuming a storey height of 3 m. The obtained results indicate that the integration of remote sensing data and machine learning algorithms may constitute a supporting tool for the process of updating national spatial databases.
EN
The article explores the convergence of human intelligence with artificial intelligence, emphasizing its potential to enhance education in the realm of mental health. This synergy is especially crucial in Ukraine, particularly within its educational institutions, following the pandemic and amid wartime conditions. The article delves into the concepts of ”digital mental health” and ”e-mental health,” shedding light on the significance of ”mental health technology” and ”digital mental health.” It also examines the standards for university courses in Mental Health Technologies and introduces a variety of Mental Health Apps, encompassing apps, wearables, platforms, data analytics resources, and other tools. The text underscores the importance of integrating artificial intelligence into both the education and economic sectors. It provides a comprehensive account of an experiment integrated into a standard university curriculum, involving Master’s psychology students at a pedagogical university. The results and conclusions of this experiment are thoroughly detailed. Moreover, the article investigates the impact of transactional distance on the learning experience of students pursuing Mental Health Technology courses in an online format at the Kryvyi Rih State Pedagogical University during the 2023-2024 academic year. Indicators of the transaction distance of the sample are researched and presented in detail. The influence of evaluation and its interaction on the level of transactional distance is analyzed as well. Applied logical and statistical tests were used, in particular the Pearson test for correlation analysis. The study findings affirm the critical role of synergizing human and artificial intelligence in addressing pressing challenges, enhancing mental health education, honing data analysis skills, and shaping a brighter future for mental well-being.
PL
Artykuł bada zbieżność ludzkiej inteligencji ze sztuczną inteligencją, podkreślając jej potencjał w zakresie wspierania edukacji w obszarze zdrowia psychicznego. Ta synergia jest szczególnie istotna na Ukrainie, zwłaszcza w instytucjach edukacyjnych, po pandemii i w warunkach wojennych. Artykuł omawia pojęcia „cyfrowe zdrowie psychiczne” i „e-zdrowie psychiczne”, zwracając uwagę na znaczenie „technologii zdrowia psychicznego” i „cyfrowego zdrowia psychicznego”. Przedstawione są również standardy dotyczące kursów uniwersyteckich w zakresie technologii zdrowia psychicznego oraz szeroka gama aplikacji związanych ze zdrowiem psychicznym, w tym aplikacje mobilne, urządzenia wearables, platformy, narzędzia analizy danych i inne zasoby. Artykuł podkreśla znaczenie integracji sztucznej inteligencji zarówno w sektorze edukacyjnym, jak i gospodarczym. Zawiera szczegółowy opis eksperymentu włączonego do standardowego programu studiów magisterskich z psychologii na uniwersytecie pedagogicznym. Wyniki i wnioski z tego eksperymentu zostały dokła dnie przedstawione. Ponadto artykuł analizuje wpływ dystansu transakcyjnego na doświadczenia edukacyjne studentów uczących się technologii zdrowia psychicznego w formacie online na Państwowym Uniwersytecie Pedagogicznym w Krzywym Rogu w roku akademickim 2023–2024. Przeanalizowano i szczegółowo przedstawiono wskaźniki dystansu transakcyjnego w badanej próbie. Zbadano także wpływ oceny, satysfakcji i ich interakcji na poziom dystansu transakcyjnego. W analizie zastosowano testy logiczne i statystyczne, w szczególności test korelacji Pearsona. Wyniki badań potwierdzają kluczową rolę synergii ludzkiej i sztucznej inteligencji w rozwiązywaniu pilnych problemów, wspieraniu edukacji w zakresie zdrowia psychicznego, rozwijaniu umiejętności analizy danych oraz kształtowaniu lepszej przyszłości dla dobrostanu psychicznego.
PL
Niniejszy artykuł przedstawia swobodne rozważania nad sztuczną inteligencją w kontekście odbioru społecznego i pokładanych w niej nadziei. Prezentowane są różne aspekty, przede wszystkim dotyczące edukacji i nauki. W sposób nawiązujący do tradycji i popkultury wyjaśniono wybrane zagadnienia związane z działaniem sztucznych sieci neuronowych, ze szczególnym wskazaniem tego, co jest pomijane w dyskursie medialnym: braków i niedociągnięć ze strony tej technologii. To, co oferują obecnie istniejące systemy sztucznej inteligencji jest bardzo dalekie od tego, co mogłoby być dopiero ewentualnie postrzegane jako prawdziwa sztuczna inteligencja. W szczególności obecnie nie ma absolutnie żadnych szans, aby można było się spodziewać, że jakikolwiek system sztucznej inteligencji będzie w stanie udowodnić przykładowo hipotezę Riemanna. Podobnie istniejące obecnie systemy komputerowego przekładu są również dalekie od pożądanego w tym zakresie ideału, a samo zastosowane w ich przypadku uczenie maszynowe nie jest bynajmniej w stanie rozwiązać skutecznie wszelkich pojawiających się tutaj problemów.
EN
This article presents free considerations on Artificial Intelligence in the context of social reception and hopes placed in it. Various aspects are presented, primarily those related to education and science. In a way referring to tradition and pop culture, selected issues related to the operation of Artificial Neural Networks are explained, with particular emphasis on what is omitted in media discourse, i.e. the shortcomings and deficiencies of this technology. Certainly, what is offered by currently existing artificial intelligence systems is still very far from what could possibly be seen as true artificial intelligence. In particular, there is currently absolutely no chance that any artificial intelligence system could be expected to be able to prove the Riemann hypothesis, for example, especially since this has been an open mathematical problem for more than 150 years, the solution of which is probably beyond the capacity of the human intellect. Similarly, the computer translation systems that currently exist are also far from the desired ideal in this respect, and the machine learning applied to them alone is by no means capable of effectively solving all the problems that arise in such systems.
EN
Road traffic crash severity is shaped by a complex interplay of human, vehicular, environmental, and infrastructural factors. While machine learning (ML) has shown promise in analyzing crash data, gaps remain in model interpretability and region-specific insights, particularly for the UK context. This study addresses these gaps by evaluating supervised ML models – Decision Tree, Support Vector Machine (SVM), and LightGBM – to predict crash severity using 2022 UK accident data. The research emphasizes interpretability through SHapley Additive exPlanations (SHAP) to identify critical factors influencing severity outcomes. Results demonstrate that LightGBM outperforms other models in predictive performance, with police officer attendance at the scene, speed limits, and the number of vehicles involved emerging as pivotal determinants of severity. The analysis reveals that higher speed limits and single-vehicle collisions correlate with severe outcomes, while police presence may mitigate accident severity. However, the study acknowledges limitations, including dataset constraints. By integrating ML with post-hoc interpretability techniques, this work advances actionable insights for policymakers to prioritize road safety interventions, such as optimizing enforcement strategies and revising speed regulations. The findings underscore the potential of interpretable ML frameworks to enhance understanding of crash dynamics and inform targeted safety measures, contributing to global efforts to reduce traffic-related fatalities and injuries.
EN
Recent global trends related to the forecasting freight prices is a complex task that involves considering various factors and variables that can affect the pricing dynamics in the sustainable transportation industry and business. Since freight price forecasting is subject to various uncertainties, including unforeseen events and market fluctuations, scientists are working on methods and tools, which also include artificial intelligence methods, to improve this process. The research purpose of this study is to present a universal machine learning based method enabling forecast freight prices for decision-making in the field of road transport. The paper presents the methodological assumptions of the model and shows an example of its use. The analysis was carried out with Python programming language and experiments were performed in Jupyter Notebook. Pandas library was used in research. The influence of individual variables was demonstrated using the eli5 library. The analysis allowed to conclude that machine learning models can be effective in forecasting freight prices in the context of sustainable transport due to their ability to capture complex patterns and relationships in large datasets.
EN
Purpose: This paper aims to present the possibility of using decision tree (DT) to increase the efficiency and effectiveness of maintenance activities by identifying the probable cause of failure based on historical data. Design/methodology/approach: This study used classifiers based on General Chi-square Automatic Interaction Detector (CHAID) and random forests. Using this group of classifiers brings with it faster u performance, the possibility to process symbolic data directly, and the possibility to add a tree as part of interactive tree building. A separate tree was built for each input parameter to aggregate the results from both trees by considering them together. The proposed solution also analyzes the importance of features (input data). Findings: Based on the research conducted, we have shown that using ML techniques can improve the accuracy of decisions regarding the type of maintenance work that should be carried out to efficiently and effectively remove failures and reduce losses caused by machine downtime. Research limitations/implications: The research is worth extending to use other novel artificial intelligence methods to compare the developed models. A limitation was the amount of data. As new data becomes available, the developed models should be trained to respond to the new data and better adapt to it. Practical implications: Relatively simple AI-based solutions such as CHAID and random forests have yielded fairly high accuracy with very short execution times. Within edge processing, this fulfills the complex trade-off between accuracy and speed in predictive maintenance applications. The presented families of simple algorithms should be developed as a transparent source of opinion for industrial decision-making processes. Originality/value: What is new is the automation of maintenance activities by identifying the probable cause of failure using AI methods. The solution is aimed at company employees who diagnose the causes of failure, ultimately improving the accuracy and speed of diagnostics and service response.
EN
The development of society and the rise in consumer awareness generate the need for rapid and precise analysis of food products to ensure their high quality. Consumers are increasingly paying attention to the origin, composition, and production processes of food. Heightened competition among producers and rising production costs lead to serious challenges, such as food product adulteration to lower prices and maximize profits. This study presents results of analysis of a wide range of food products, including wines, whiskies, apple juices, honey, isotonic drinks, and plant-based milks. The research focused on profiling these samples and identifying potential issues, such as the presence of undesirable additives. The registration of voltammetric profiles was made possible through the use of modern working electrodes. As a result of the conducted research, several innovative methods were developed, combining chemical analysis and machine learning strategies that effectively address the identified research problems. Research plans were created to detect adulteration in apple juices and honeys, and predictive models regarding the aging of young wines were defined. Procedures for profiling products such as wines, whiskies, honeys, isotonic drinks, and plant-based milks were also designed. For each of these procedures, a multi-stage optimization of voltammetric profile registration parameters was carried out, and the obtained data underwent advanced signal processing to ensure the highest possible quality of results.
EN
Prediction of travel mode choice (TMC) is crucial for urban planners and policymakers to promote sustainable transportation systems and reduce traffic congestion. In recent decades, the prediction of TMC to schools, which involves daily commuting, has attracted the interest of researchers in green urban planning and a better society. Statistical models are based on many unrealistic premises about the data distribution and are typically used to perform mode choice analysis, which might result in biased model predictions. Moreover, machine learning algorithms that are assumption-free can handle complex, imbalanced, and multiclass datasets with high interpretability and outperform conventional techniques; thus, they have received much attention. Therefore, the present study intends to use modern techniques, such as Naďve Bayes, random forest, gradient boost, support vector machine, and linear regression, to predict the TMC to school (highest level of education) and its influencing factors. The current study contributes to the existing literature through (1) the application of modern techniques for the prediction of school TMC, (2) feature importance to predict the most significant feature of school TMC, (3) a proposal of the best predictive model, and (4) a discussion of the effectiveness of modern techniques over traditional methods. A total of 2756 samples from the NextGen 2022 National Household Travel Survey – California dataset was utilized to predict school TMC and its influencing factors. Based on the predictions, it was found that gradient boost outperformed other machine learning models with an accuracy of 98.9% in training and 83% in testing. Moreover, random forest achieved an accuracy of 77.8% and 71.1% in training and testing. Based on the sensitivity analysis, it was found that age is the most significant factor in determining the TMC to school, followed by the type of school. The findings will help policymakers and can be used to better understand modeling TMCs to schools, promoting sustainable transportation options.
EN
With growing environmental concerns surrounding it, all efforts in the aviation sector are moving toward reducing the ecological footprint of this sector. One of the promising solutions is sustainable aviation fuel, which offers an alternative to traditional jet fuel. This study investigates the possibility of using a developed machine learning model designed to forecast aircraft emissions using a set of 11 inputs related to engine specifications, fuel properties, and ambient air conditions. The model is trained based on version 30 of the International Civil Aviation Organization’s engine emissions databank. An artificial neural network was created after data cleaning and preparation for its strength in modeling intricate, nonlinear interactions between inputs and predicted emissions. The model generates estimates of the emission index for carbon dioxide, nitrogen oxides, carbon monoxide, and fuel flow. These predictions help assess how adjustments in operational parameters influence emissions. Additionally, the model can support more refined analysis across different flight scenarios by incorporating data from the Automatic Dependent Surveillance–Broadcast and weather information.
EN
Accurate forecasting of freight volumes is essential for effective transportation planning and infrastructure development. Previous research on Uzbekistan’s railway sector primarily relied on single-method approaches, either using traditional statistical tools or machine learning techniques. This study adopts an innovative dual-method framework, combining Excel-based models—such as regression equation, exponential smoothing, and moving average—with advanced machine learning techniques, including decision tree, random forest, gradient boosting, and extreme gradient boosting. Freight shipment data and socio-economic variables, such as gros domestic product and operational railway length. Model performance was evaluated using root mean square error and mean absolute percentage error. The regression equation model demonstrated exceptional precision with a mean absolute percentage error of 0.001%, though its simplicity raised concerns about overfitting and limited scalability. Meanwhile, machine learning models showcased superior robustness and generalization capabilities, achieving low and balanced error rates, making them more suitable for capturing complex, non-linear relationships in freight dynamics. According to the compound annual growth rate projection, freight volumes are expected to increase significantly, reaching 106 million tons by 2030. This underscores the growing importance of strategic infrastructure investment, modernization, and policy interventions to accommodate future demand. The findings provide valuable insights for policymakers and transportation planners, offering a practical and comprehensive framework for sustainable development in Uzbekistan’s railway sector. This study aims to lay a foundation for informed decision-making and long-term growth planning by leveraging a mix of traditional and modern forecasting approaches.
EN
This article discusses the application of machine learning (ML) models in improving legal and administrative processes. It highlights how ML techniques such as natural language processing and predictive analytics can automate routine tasks such as document classification, legal research, and case outcome prediction. The authors discuss the benefits of ML-based systems, including increased efficiency, reduced human error, and increased access to justice. Ethical issues are addressed, particularly regarding algorithmic bias, transparency, and accountability in decision-making. Case studies are presented to illustrate the real-world implementation of these technologies in courts and public administration. The article concludes by emphasizing the need for interdisciplinary collaboration and regulatory frameworks to ensure responsible and effective integration of ML in legal domains.
PL
Artykuł omawia zastosowanie modeli uczenia maszynowego (ML) w ulepszaniu procesów prawnych i administracyjnych. Podkreśla, w jaki sposób techniki ML, takie jak przetwarzanie języka naturalnego i analityka predykcyjna, mogą automatyzować rutynowe zadania, takie jak klasyfikacja dokumentów, badania prawne i przewidywanie wyników spraw. Autorzy omawiają korzyści płynące z systemów opartych na ML, w tym zwiększoną wydajność, zmniejszenie liczby błędów ludzkich i zwiększony dostęp do wymiaru sprawiedliwości. Poruszane są kwestie etyczne, w szczególności dotyczące stronniczości algorytmicznej, przejrzystości i odpowiedzialności w podejmowaniu decyzji. Przedstawiono studia przypadków, aby zilustrować rzeczywiste wdrożenie tych technologii w sądach i administracji publicznej. Artykuł kończy się podkreśleniem potrzeby interdyscyplinarnej współpracy i ram regulacyjnych w celu zapewnienia odpowiedzialnej i skutecznej integracji ML w domenach prawnych.
12
PL
W pracy przedstawiono aplikację do rozpoznawania pionowych znaków drogowych z użyciem modelu sztucznej inteligencji, zaprojektowaną w celu poprawy bezpieczeństwa ruchu drogowego. Model został przetrenowany na przygotowanym zbiorze danych obejmującym zdywersyfikowane obrazy, wzbogacone technikami augmentacji. Aplikacja umożliwia wykrywanie znaków drogowych z kamery internetowej oraz nagrań wideo. Model sztucznej inteligencji wykazuje potencjał do zastosowań w systemach wsparcia kierowców i technologii autonomicznych pojazdów.
EN
This paper presents an application for recognizing vertical traffic signs using an artificial intelligence model, designed to enhance road safety. The model was trained on a prepared dataset comprising diversified images, enriched with augmentation techniques. The application enables the detection of traffic signs from webcam feeds and video recordings. The artificial intelligence model shows potential for use in driver assistance systems and autonomous vehicle technologies.
EN
Purpose: In today’s digital society, the growing problem of disinformation, which spreads faster than ever before through social media, poses a serious challenge. The aim of the study was to develop a method for protecting users against fake news by combining artificial intelligence solutions with human knowledge and experience. The authors assumed that effective counteraction against disinformation requires not only advanced technologies but also active involvement of users, who are able to detect subtleties that might escape automated systems. Project and methods: As part of the project, a system was developed to create a database of disinformation articles. An initial verification of the content was carried out by experts, followed by user evaluations, whose responses were used to train machine learning classification models. Feedforward neural networks were applied and trained on data enriched with text complexity indicators such as the Pisarek index, FOG index, and Flesch readability scores. An important element of the system was also the profiling of users based on their knowledge and competencies, which allowed for more accurate matching of the content being evaluated. Results: The results indicated that the neural network achieved a classification accuracy of 84%, which was considered a very good result given the complexity of detecting disinformation. Qualitative analysis revealed that fake news is characterized by its ubiquity, simplicity of message, and emotional appeal, making it exceptionally effective at spreading. The research also showed that even highly knowledgeable users are not completely immune to manipulation, particularly when emotionally charged social events are involved. It was confirmed that fake news most often concerns political, economic, and social topics and that its goals are both to achieve political influence and economic gain. Conclusions: The conclusions drawn from the study indicate that complete protection against disinformation is impossible; however, it is possible to mitigate its effects through appropriate user education and technological development. Media literacy and the development of critical content analysis skills are essential to strengthening society’s resilience to false information. The hybrid approach, combining artificial intelligence with human expertise, proved to be an effective solution, although it requires continuous improvement of models and analytical methods. The article emphasizes the necessity for further research in this area and the importance of a systemic approach combining technology, education, and social responsibility.
PL
Cel: Współczesne społeczeństwo cyfrowe zmaga się z rosnącym problemem dezinformacji, która za pośrednictwem mediów społecznościowych rozprzestrzenia się szybciej niż kiedykolwiek wcześniej. Celem pracy było stworzenie metody ochrony użytkowników przed fake newsami poprzez połączenie rozwiązań sztucznej inteligencji z wiedzą i doświadczeniem ludzi. Autorzy założyli, że skuteczna walka z dezinformacją wymaga nie tylko zaawansowanych technologii, ale także aktywnego udziału użytkowników, którzy mogą wychwycić subtelności niedostrzegalne dla maszyn. Kluczowym zadaniem projektu było więc opracowanie hybrydowego podejścia, które synergicznie wykorzysta oba te potencjały. Projekt i metody: W ramach realizacji projektu opracowano system umożliwiający tworzenie bazy danych artykułów dezinformacyjnych. Przeprowadzono wstępną weryfikację treści przez ekspertów, a następnie użytkowników, których odpowiedzi posłużyły do uczenia maszynowego modeli klasyfikacyjnych. Zastosowano sieci neuronowe jednokierunkowe, trenując je na danych wzbogaconych o wskaźniki trudności tekstu, takie jak indeks Pisarka, FOG i Flescha. Istotnym elementem systemu było również profilowanie użytkowników pod względem ich wiedzy i kompetencji, co umożliwiło bardziej precyzyjne dopasowanie treści ocenianych podczas badań. Proces oceniania nie ograniczał się do binarnego wskazywania prawdy lub fałszu, lecz uwzględniał skalę ocen od 1 do 10, pozwalając na uchwycenie stopnia pewności w ocenie danego materiału. Wyniki: Wyniki badań wskazały, że sieć neuronowa osiągnęła dokładność klasyfikacji treści na poziomie 84%, co uznano za bardzo dobry wynik w kontekście trudności rozpoznawania dezinformacji. W analizie jakościowej zauważono, że fake newsy cechują się powszechnością, prostotą przekazu oraz emocjonalnym nacechowaniem treści, co czyni je wyjątkowo skutecznymi w rozpowszechnianiu. Badania wykazały również, że nawet użytkownicy o wysokim poziomie wiedzy nie są całkowicie odporni na manipulację, zwłaszcza w kontekście aktualnych wydarzeń budzących silne emocje społeczne. Potwierdzono, że fake newsy dotyczą najczęściej tematów politycznych, ekonomicznych i społecznych, a ich celem jest zarówno osiągnięcie wpływów politycznych, jak i zysków ekonomicznych. Wnioski: Wnioski płynące z badań wskazują, że pełna ochrona przed dezinformacją jest niemożliwa, jednak możliwe jest ograniczenie jej skutków poprzez odpowiednie przygotowanie użytkowników i rozwój technologii. Edukacja medialna oraz budowanie kompetencji w zakresie krytycznej analizy treści są niezbędne, by wzmocnić odporność społeczeństwa na fałszywe informacje.
EN
Accurate predictions of asphalt mixtures’ mechanical performance are crucial to improve the conventional mix-design procedures and to optimize both pavements’ performance and service life. This research explores this issue by means of a comparative analysis between different modeling approaches: conventional regressions, both linear and non-linear, and artificial neural networks. The former are widely used but may lack the flexibility to capture complex relationships between testing conditions and the corresponding mechanical behavior. The latter represent promising alternatives due to their capability to successfully model non-linear interactions between variables. This research compares the predictive accuracy of these different modeling approaches using experimental data resulting from 4-point bending tests carried out under several temperatures and loading frequencies. The outcomes suggest that neural networks outperform conventional regression models in capturing complex relationships, highlighting the strengths and limitations of each modeling approach and providing insights for selecting optimal models in road pavement engineering applications.
PL
Dokładne przewidywanie właściwości mechanicznych mieszanek mineralno-asfaltowych jest kluczowe w doskonaleniu konwencjonalnych procedur projektowania mieszanek oraz optymalizacji ich właściwości i trwałości nawierzchni. Niniejsze badania dotyczą pogłębionej analizy tego zagadnienia z wykorzystaniem analizy porównawczej dwóch różnych podejść do modelowania: konwencjonalnymi metodami regresji liniowej i nieliniowej oraz metodą sztucznych sieci neuronowych. Pierwsze podejście z konwencjonalnymi metodami regresyjnymi jest szeroko stosowane, ale może mieć pewne ograniczenia co do zastosowania, szczególnie tam, gdzie należy uwzględnić złożone zależności między warunkami badania, a odpowiadającymi im wyjściowymi właściwościami mechanicznymi. Drugie podejście stanowi obiecującą alternatywę, ze względu na przydatność sztucznych sieci neuronowych w modelowaniu nieliniowych interakcji między zmiennymi. Niniejsze badania porównują dokładność przewidywania różnymi metodami predykcyjnymi właściwości mechanicznych mieszanek mineralno-asfaltowych, wykorzystując dane eksperymentalne uzyskane w badaniu cztero-punktowego zginania przeprowadzonych w różnych temperaturach i częstotliwościach obciążenia. Wyniki analiz wskazują na przewagę sieci neuronowych nad konwencjonalnymi metodami modeli regresyjnych ze względu na złożoność analizowanych zależności. Dodatkowymi efektami przeprowadzonych badań jest wskazanie mocnych i słabych strony każdego podejścia do modelowania oraz praktyczne rekomendacje dotyczące wyboru optymalnych modeli do zastosowania w praktyce inżynierskiej budownictwa drogowego.
PL
Wildlife monitoring is vital to conservation efforts and the prevention of animal-related negative impacts on human activities and ecosystems. The use of Unmanned Aerial Vehicles (UAVs) enables data collection with no harm to wildlife and in difficult field conditions. This study proposes a method of detecting hoofed animals in UAV-acquired thermal images, addressing the challenges of low-resolution thermal imaging and the presence of other heated objects hindering simple temperature analysis and image segmentation. The proposed method uses machine learning algorithms and is designed to work with a limited size of training dataset. The method consists of an initial segmentation step that detects potential animals based on thermal and geometrical signatures, followed by classification using a Balanced Random Forest (BRF) algorithm. One of the key aspects of the proposed method is the use of geometric and thermal features along with multi-scale Convolutional Neural Network (CNN) extracted feature representations in BRF. The benefit of the BRF is its speed, little requirement regarding the amount of training data, and its capacity to work with an imbalanced number of objects in different classes. The dataset was collected during two UAV flights over a fenced enclosure with wild hoofed animals. The proposed approach showed high efficiency, achieving an overall accuracy of 90%. These results confirm the feasibility of UAV-based animal detection based solely on thermal images collected during the day and showing many other heated objects. The method provides a solution for wildlife monitoring, with potential adaptability to different species and further applications.
PL
Przedstawiono możliwość wykorzystania wybranych modeli uczenia maszynowego do estymacji parametrów fizycznych gazu ziemnego, opisujących jego jakość, na podstawie której następuje rozliczanie się z odbiorcami. Obecnie często stosowane na szeroką skalę metody wykorzystują w tym celu założony skład gazu ziemnego oraz równania wirialne. Są przez to opatrzone pewną niedokładnością. Prezentowane rozwiązanie może być alternatywą. Metodologia zakładała użycie ograniczonej liczby danych wejściowych, które są zbierane na stacjach redukcyjno-pomiarowych oraz wykorzystywała zmiany temperatury gazu w wyniku efektu Joule'a i Thompsona, zachodzącego podczas redukcji ciśnienia. Modele stworzone na danych syntetycznych pokazują, że estymacja takich parametrów, jak współczynnik ściśliwości Z oraz gęstość gazu może być bardzo dokładna.
EN
The possibility of using selected machine learning models (multiple regression - MLR, random forest - RF, artificial neural network - ANN) to estimate phys. parameters (compressibility coeff. Z, d. of the gas mixt., heat of combustion of the mixt., H2 content in the mixt.) of natural gas describing its qual. was presented. The methodology assumed the use of a limited amt. of input data, which were collected at redn. and measurement stations, and used changes in gas temp. as a result of the Joule-Thompson effect, occurring during pressure redn. Models built on synthetic data show that the estimation of parameters such as the compressibility factor Z and gas d. can be very accurate.
EN
The study aimed to develop a method to improve imaging resolution in industrial electrical tomography. For this purpose, an algorithmic model of a neural network based on LSTM layers was developed, with two input sequences and a self-attention layer as characteristic features. Electrical impedance tomography measures voltage, and electrical capacitance measures capacitance. In the proposed solution, the LSTM network turns measurements into images using both types of measurements. The hybrid approach reduces the underdetermination of the inverse problem, improving imaging quality. To objectively evaluate the proposed solution, the new model was compared with the classical model, using only EIT measurements. Four quantitative criteria were used, in the form of popular indicators used to measure image quality. The results confirmed the advantage of the proposed approach over the classical model.
PL
Celem badań było opracowanie metody poprawiającej rozdzielczość obrazowania w przemysłowej tomografii elektrycznej. W tym celu opracowano model algorytmiczny sieci neuronowej opartej o warstwy LSTM, której cechą charakterystyczną były dwie sekwencje wejściowe oraz zastosowanie warstwy samouwagi. W proponowanym rozwiązaniu, sieć LSTM transformująca pomiary na obrazy wykorzystuje zarówno pomiary napięć, charakterystyczne dla elektrycznej tomografii impedancyjnej, jak również pomiary pojemności elektrycznej. Podejście hybrydowe redukuje niedookreśloność problemu odwrotnego, co poprawia jakość obrazowania. W celu obiektywnej oceny proponowanego rozwiązania porównano nowy model z modelem klasycznym, wykorzystującym jedynie pomiary EIT. Zastosowano cztery kryteria ilościowe, w postaci popularnych wskaźników wykorzystanych jako miary jakości obrazów. Rezultaty potwierdziły przewagę proponowanego podejścia nad modelem klasycznym.
EN
This study aims to advance the field of Radio Tomography Imaging (RTI), focusing on device-free methods for human localization within confined environments. Utilizing deep residual networks, the research transforms Wi-Fi Received Signal Strength Indicator (RSSI) data into tomographic images, thereby contributing algorithmic advancements to RTI. Such a device-free approach circumvents the need for monitored individuals to carry electronic devices, ensuring privacy protection through inherent anonymization. Alongside, this work presents the development of optimized, energy-efficient hardware specifically designed for RTI applications. Considering real-world constraints, the hardware architecture reconciles performance, energy efficiency, and device compatibility. The study adopts a holistic framework that integrates both the algorithmic and hardware aspects of RTI, providing a comprehensive solution for real-world deployments. By examining Wi-Fi-based RTI through both an algorithmic lens, using deep residual networks, and a hardware-centric perspective, this research paves the way for scalable, efficient, and privacy-preserving localization systems. The objective is to present a balanced, optimized approach that contributes to developing state-of-the-art RTI methods and implementations.
PL
Celem niniejszych badań jest rozwój dziedziny obrazowania radiotomograficznego (RTI), które koncentrują się na metodach lokalizacji człowieka w zamkniętych środowiskach, niewymagających stosowania dodatkowych urządzeń. Wykorzystując głębokie sieci rezydualne, w badaniach przeprowadzono transformację danych wskaźnika siły sygnału odebranego Wi-Fi (RSSI) na obrazy tomograficzne, przyczyniając się w ten sposób do udoskonalenia algorytmów w dziedzinie RTI. Takie podejście, niewymagające użycia urządzeń, pozwala uniknąć konieczności noszenia przez monitorowane osoby urządzeń elektronicznych, zapewniając w ten sposób ochronę prywatności poprzez anonimizację. W pracy przedstawiono także rozwój zoptymalizowanego, energooszczędnego sprzętu zaprojektowanego specjalnie do zastosowań RTI. Architektura sprzętowa łączy wydajność, efektywność energetyczną i kompatybilność urządzeń, biorąc pod uwagę ograniczenia świata rzeczywistego. W badaniu przyjęto holistyczne ramy, które integrują zarówno algorytmiczne, jak i sprzętowe aspekty RTI, zapewniając kompleksowe rozwiązanie ukierunkowane na wdrożenia w świecie realnym. Badając RTI oparte na Wi-Fi zarówno przez pryzmat algorytmu wykorzystującego głębokie sieci resztkowe, jak i perspektywę skupioną na sprzęcie, przedstawione badania torują drogę dla skalowalnych, wydajnych i chroniących prywatność systemów lokalizacji. Celem ogólnym jest przedstawienie koncepcji zrównoważonego, zoptymalizowanego podejścia, które przyczynia się do rozwoju najnowocześniejszych metod i wdrożeń RTI.
EN
In this research endeavor, the focus was directed towards investigating a specific fault occurrence within an induction motor, namely an inter-turn short circuit (ITSC), intentionally induced within phase A of the motor. The employed dataset encompassed both correct operational states and instances afflicted with the aforementioned fault, with parameters such as current flows and torque outputs meticulously recorded and analyzed. When employing a methodology rooted in machine learning, a suite of algorithms was applied to discern and identify the presence of the fault. From among the array of algorithms utilized, the notable contenders included Random Forest (RF), k-nearest neighbors (KNN), and Extreme Gradient Boosting (XGBoost), each meticulously trained and tested on the dataset to gauge their efficacy in fault detection. The outcomes obtained in the mentioned study unequivocally demonstrate the superiority of the Random Forest algorithm in terms of accuracy assessment, boasting a remarkable accuracy rate of 99.7%. In the stark contrast, both KNN and XGBoost algorithms exhibited comparatively lower accuracy rates, standing at 96.6% and 96.5%, respectively.
PL
W tym przedsięwzięciu badawczym skupiono się na badaniu konkretnego wystąpienia usterki w silniku indukcyjnym, a mianowicie zwarcia międzyzwojowego (ITSC), celowo indukowanego w fazie A silnika. Zastosowany zbiór danych obejmował zarówno prawidłowe stany operacyjne, jak i przypadki dotknięte wyżej wymienionymi usterkami, przy czym parametry takie jak przepływy prądu i wyjściowy moment obrotowy były skrupulatnie rejestrowane i analizowane. Stosując metodologię opartą na uczeniu maszynowym, zastosowano zestaw algorytmów w celu rozpoznania i zidentyfikowania obecności usterki. Wśród szeregu wykorzystywanych algorytmów godnymi uwagi konkurentami byli Random Forest (RF), k-najbliżsi sąsiedzi (KNN) i Extreme Gradient Boosting (XGBoost), każdy skrupulatnie przeszkolony i przetestowany na zbiorze danych w celu oceny ich skuteczności w wykrywaniu usterek. Wyniki uzyskane w tym badaniu jednoznacznie wskazują na wyższość algorytmu Random Forest pod względem oceny dokładności, który może pochwalić się niezwykłym współczynnikiem dokładności wynoszącym 99,7%. Dla kontrastu, zarówno algorytmy KNN, jak i XGBoost wykazywały stosunkowo niższe wskaźniki dokładności, wynoszące odpowiednio 96,6% i 96,5%.
EN
The article describes a solution integrating machine learning algorithms and electrical impedance tomography-based wearable sensors. The main aim of the project was to develop a device that can assess the state of the urinary bladder in a non-invasive way. The research methods included XGBoost, Extremely Randomized Trees, Elastic Net, NNNET, and RPART Decision Tree. The obtained reconstructions of the simulated urinary bladder were presented, and a comparative analysis of the algorithms was performed.
PL
W artykule opisano rozwiązanie integrujące algorytmy uczenia maszynowego i czujniki noszone na ciele oparte na elektrycznej tomografii impedancyjnej. Głównym celem projektu było opracowanie urządzenia, które może oceniać stan pęcherza moczowego w sposób nieinwazyjny. Metody badawcze obejmowały XGBoost, Extremely Randomized Trees, Elastic Net, NNNET i RPART Decision Tree. Przedstawiono uzyskane rekonstrukcje symulowanego pęcherza moczowego i przeprowadzono analizę porównawczą algorytmów.
first rewind previous Strona / 27 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.