Niniejszy artykuł przedstawia swobodne rozważania nad sztuczną inteligencją w kontekście odbioru społecznego i pokładanych w niej nadziei. Prezentowane są różne aspekty, przede wszystkim dotyczące edukacji i nauki. W sposób nawiązujący do tradycji i popkultury wyjaśniono wybrane zagadnienia związane z działaniem sztucznych sieci neuronowych, ze szczególnym wskazaniem tego, co jest pomijane w dyskursie medialnym: braków i niedociągnięć ze strony tej technologii. To, co oferują obecnie istniejące systemy sztucznej inteligencji jest bardzo dalekie od tego, co mogłoby być dopiero ewentualnie postrzegane jako prawdziwa sztuczna inteligencja. W szczególności obecnie nie ma absolutnie żadnych szans, aby można było się spodziewać, że jakikolwiek system sztucznej inteligencji będzie w stanie udowodnić przykładowo hipotezę Riemanna. Podobnie istniejące obecnie systemy komputerowego przekładu są również dalekie od pożądanego w tym zakresie ideału, a samo zastosowane w ich przypadku uczenie maszynowe nie jest bynajmniej w stanie rozwiązać skutecznie wszelkich pojawiających się tutaj problemów.
EN
This article presents free considerations on Artificial Intelligence in the context of social reception and hopes placed in it. Various aspects are presented, primarily those related to education and science. In a way referring to tradition and pop culture, selected issues related to the operation of Artificial Neural Networks are explained, with particular emphasis on what is omitted in media discourse, i.e. the shortcomings and deficiencies of this technology. Certainly, what is offered by currently existing artificial intelligence systems is still very far from what could possibly be seen as true artificial intelligence. In particular, there is currently absolutely no chance that any artificial intelligence system could be expected to be able to prove the Riemann hypothesis, for example, especially since this has been an open mathematical problem for more than 150 years, the solution of which is probably beyond the capacity of the human intellect. Similarly, the computer translation systems that currently exist are also far from the desired ideal in this respect, and the machine learning applied to them alone is by no means capable of effectively solving all the problems that arise in such systems.
Rosnąca w społeczeństwie świadomość ekologiczna sprawia, że w Europie rośnie zapotrzebowanie na używaną odzież i obuwie. Jednak wysokie koszty siły roboczej w krajach UE sprawiają, że ręczne sortowanie odzieży staje się nieopłacalne. Skuteczna klasyfikacja materiałów odzieży i obuwia w oparciu o tradycyjne rozwiązania, np. kamery mono/RGB nie jest możliwa. W artykule opisujemy opracowany i wdrożony system automatycznej klasyfikacji materiałów przyszwy obuwia na linii sortującej, wykorzystujący sztuczne sieci neuronowe do analizy obrazu z kamer hiperspektralnych w paśmie NIR-SWIR (900-1700 nm).
EN
The growing environmental awareness in society is driving an increasing demand for second-hand clothing and footwear in Europe. However, the high labor costs in EU countries make manual sorting of clothing not economically viable. Effective classification of garment and footwear materials using traditional solutions, such as mono/RGB cameras, is not possible. In our article, we describe the development and implementation of an automated system for classifying upper shoe materials on a sorting line, utilizing artificial neural networks to analyze images from hyperspectral cameras in the NIR-SWIR range (900-1700 nm).
Parametry oczyszczalni ścieków w Polsce muszą spełniać określone normy, które regulują jakość odpływu po procesie oczyszczania. Ilość oraz jakość dopływających ścieków zależy od wielu czynników, między innymi od warunków pogodowych. Prognozowanie tych parametrów pozwala zapewnić optymalną pracę oczyszczalni, co przyczynia się do redukcji kosztów ich pracy. W tym celu, korzystając z danych pogodowych, przeprowadzono próbę oszacowania ilości ścieków dopływających do oczyszczalni w Rzeszowie. Wykorzystano ponad 1000 modeli uczenia maszynowego (ML), w tym także modele statystyczne, takie jak ARIMA i SARIMAX, oraz algorytmy ML, takie jak KNN i sieci neuronowe, w różnych konfiguracjach i przedziałach czasowych. Uzyskano najmniejszy średni błąd bezwzględny (MAE) na poziomie 3598 m3 oraz błąd średniokwadratowy (RMSE) równe 4808 m3. Badanie pokazało, jak wybór parametrów oraz różnych typów modeli predykcyjnych (statycznych, dynamicznych, uczenia maszynowego) wpływa na dokładność prognoz, co bazując wyłącznie na podstawowych danych czasowych, okazuje się być wymagającym procesem.
EN
The parameters of wastewater treatment plants in Poland must meet certain standards that regulate the quality of wastewater after the treatment process. The quantity and quality of incoming sewage depend on many factors, including weather conditions. Forecasting these parameters can ensure optimal operation of the treatment plant, which will reduce operating costs. For this purpose, using weather data, an attempt was made to estimate the amount of sewage flowing into the sewage treatment plant in Rzeszow. Over 1000 machine learning (ML) models were used, including statistical models such as ARIMA and SARIMAX, and ML algorithms such as KNN and neural networks, in various configurations and time frames. The lowest mean absolute error (MAE) of 3598 m3 and the root mean square error (RMSE) of 4808 m3 were obtained. The study showed how the selection of parameters and different types of predictive models (static, dynamic, machine learning) affects forecast accuracy. It also highlighted that forecasting based solely on basic time-series data is a challenging process.
This paper is devoted to the analysis of existing convolutional neuralnetworks and experimental verification of the YOLO and U-Netarchitectures for the identification and classification of building materials based on images of destroyed structures. The aim of the study is to determinethe effectiveness of these models in the tasks of recognising materials suitable for reuse and recycling. This will help reduce construction wasteand introduce a more environmentally friendly approach to resource management. The study examined several modern deep learning models for image processing, including Faster R-CNN, Mask R-CNN, FCN (Fully Convolutional Networks), and SegNet. However, the choice was made on the YOLOand U-Netarchitectures. YOLO is used for fast object identification in images, which allows for quick detection and classification of building materials, and U-Netis used for detailed image segmentation, providing accurate determination of the structure and composition of building materials. Each of these models has been adapted to the specific requirements of building materials analysis in the context of collapsed structures. Experimental results have shown that the use of these models allows achieving high accuracy of segmentation of images of destroyed buildings, which makes them promising for usein automated resource control systems.
PL
Niniejszy artykuł poświęcony jest analizie istniejących konwolucyjnych sieci neuronowych i eksperymentalnej weryfikacji architektur YOLOi U-Net do identyfikacji i klasyfikacji materiałów budowlanych na podstawie obrazów zniszczonych konstrukcji. Celem badania jest określenie skuteczności tych modeli w zadaniach rozpoznawania materiałów nadających się do ponownego wykorzystania i recyklingu. Pomoże to zmniejszyć ilość odpadów budowlanych i wprowadzić bardziej przyjazne dla środowiska podejście do zarządzania zasobami. W badaniu przeanalizowano kilkanowoczesnych modeli głębokiego uczenia do przetwarzania obrazu, w tym Faster R-CNN, Mask R-CNN, FCN (Fully Convolutional Networks) i SegNet, jednak wybór padłna architektury YOLO i U-Net. YOLO służy do szybkiej identyfikacji obiektów na obrazach, co pozwala na szybkie wykrywanie i klasyfikację materiałów budowlanych, a U-Net służy do szczegółowej segmentacji obrazu, zapewniając dokładne określenie struktury i składu materiałów budowlanych. Każdyz tych modeli został dostosowany do specyficznych wymagań analizy materiałów budowlanych w kontekście zawalonych konstrukcji.Wyniki eksperymentów wykazały, żezastosowanie tych modeli pozwala osiągnąć wysoką dokładność segmentacji obrazów zniszczonych budynków, co czynije obiecującymi do wykorzystania w zautomatyzowanych systemach kontroli zasobów.
5
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
The stability of tailings storage facilities (TSFs) is crucial for preventing failures that can lead to severe environmental and economic consequences. This research was conducted as part of the SEC4TD project, which aims to enhance TSF safety through advanced technologies. The project integrates IoT sensors, finite element method (FEM) simulations, and neural networks to automate the calculation of the factor of safety (FoS). The system starts with real-time water level readings from piezometers, which are processed by a trained neural network to estimate the FoS. Initially, a direct FEM-based approach was tested but proved impractical due to computational complexity and frequent convergence issues, requiring constant engineering supervision. To address this, an alternative framework was developed: engineers first analyze TSF cross-sections and generate multiple FEM models with varying water levels. The results of these simulations serve as training data for a neural network, which then enables rapid and reliable FoS predictions without the need for real-time FEM computations. In this article, the complete framework for integrating FEM-based FoS calculations with neural networks is presented, detailing the methodology, training process, and implementation. This approach allows for real-time safety assessments, providing TSF management teams with both sensor data and automated risk analysis, ultimately improving decision-making and increasing TSF security.
PL
Stateczność obiektów unieszkodliwiania odpadów wydobywczych (OUOW) ma kluczowe znaczenie dla zapobiegania awariom mogącym prowadzić do poważnych skutków środowiskowych i ekonomicznych. Praca została zrealizowana w ramach projektu SEC4TD, którego celem jest zwiększenie bezpieczeństwa OUOW poprzez zastosowanie nowoczesnych technologii. Opracowany system integruje czujniki IoT, symulacje metodą elementów skończonych (MES) oraz sieci neuronowe w celu automatyzacji obliczania współczynnika stateczności (FoS). System rozpoczyna pracę od pozyskania w czasie rzeczywistym danych o poziomie wody z piezometrów, które są następnie przetwarzane przez wytrenowaną sieć neuronową w celu oszacowania FoS. Początkowo testowano bezpośrednie podejście oparte na MES, jednak ze względu na złożoność obliczeniową oraz częste problemy z zbieżnością, wymagające stałego nadzoru inżynierskiego, okazało się ono niepraktyczne. W związku z tym opracowano alternatywną metodę: inżynierowie analizują przekroje OUOW i generują wiele modeli MES z różnymi poziomami wody. Wyniki tych symulacji służą jako dane treningowe dla sieci neuronowej, która umożliwia szybkie i wiarygodne prognozowanie FoS bez konieczności przeprowadzania obliczeń MES w czasie rzeczywistym. W artykule przedstawiono pełne ramy integracji obliczeń MES z sieciami neuronowymi, opisując metodykę, proces uczenia oraz implementację rozwiązania. Zaproponowane podejście umożliwia dokonywanie ocen bezpieczeństwa w czasie rzeczywistym, dostarczając zespołom zarządzającym OUOW zarówno danych pomiarowych, jak i automatycznej analizy ryzyka, co znacząco wspiera proces decyzyjny i zwiększa bezpieczeństwo obiektów.
W artykule zawarto doświadczenia autora związane z budową modeli rekurencyjnych sieci neuronowych przeznaczonych do modelowania przebiegów konwergencji wyrobisk górniczych. We wstępie przedstawiono kwestię analizy danych typu sekwencyjnego, następnie omówiono analizy pomiarów konwergencji, które stanowią przykład sekwencji. W dalszej części zaprezentowano model sieci neuronowej wraz z procesem trenowania w oparciu o dane z pomiarów konwergencji wyrobisk górniczych. Na podstawie sformułowanego kryterium wykazano możliwość zastosowania sieci rekurencyjnych do modelowania przebiegów konwergencji.
EN
The article contains the author’s experience with four recurrent neural network models made in the Tensorflow environment, designed to predict the convergence values of mine workings. It was shown that convergence measurements are sequential data and simple processing operations were performed on them. After formulating the criterion of convergence of learning curves, as a measure of correct training of the network, the construction of models was started. The models were made in four forecast variants, modelling both single and multiple outputs. Based on the learning curves, the fulfilment of the criterion was demonstrated and the possibility of using recurrent networks in modelling simple convergence courses was proven.
With the increasing attention of society to sustainable development and environmental friendly design, building energy saving design has become a research hotspot. In this paper, a method combining multi-objective optimization algorithm and neural network backpropagation strategy is proposed to solve the problem that traditional design methods are difficult to balance multi-objective. By dividing the architectural design problem into multiple sub-problems, each sub-problem corresponds to a design objective, and applying multi-objective optimization technology, the global optimization is realized. The experimental results show that the error of energy consumption prediction model is almost 0, while the error of daylighting prediction model is between 0 and 5, and the average error is about 3. The correlation coefficients of all models exceeded 0.9845, highlighting the excellent performance of neural networks in forecasting accuracy. The BP neural network showed good convergence in 2800 to 3000 iterations, further demonstrating the high efficiency of the method in energy consumption and daylighting prediction. The research not only provides a scientific and feasible strategy for building energy efficiency optimization design, but also enhances its scientific value and practicability through the display of quantitative results.
In this research paper, we examine recurrent and linear neural networks to determine the relationship between theamount of data needed to achieve generalization and data dimensionality, as well as the relationship between datadimensionality and the necessary computational complexity. To achieve this, we also explore the optimal topologies for each network, discuss potential problems in their training, and propose solutions. In our experiments, the relationship between the amount of data needed to achieve generalization and data dimensionality was linear for feed-forward neural networks and exponential for recurrent ones. Our findings indicate that computational complexity exhibits anexponential growth pattern as the dimensionality of the data increases. We also compared the networks’ accuracy inboth distance approximation and classification to the most popular alternative, Siamese networks, which outperformed both linear and recurrent networks in classification despite having lower accuracy in exact distance approximation.
This paper examines methods to secure machine learning inference (ML inference) so that sensitive data remainsprivate and proprietary models are protected during remote processing. We review several approaches ranging fromcryptographic techniques like homomorphic encryption (HE) and secure multi-party computation (MPC) to hardwaresolutions such as trusted execution environments (TEEs) and complementary methods including differential privacyand split learning. Each method is analyzed in terms of security, efficiency, communication overhead, and scalability.Use cases in healthcare, finance, and education show how these techniques balance privacy with practical performance.We conclude by outlining open challenges and future directions for building robust, efficient privacy-preserving ML inference systems.
Współczesne podejście do tworzenia funkcji mieszkaniowej skonfrontowane zostało z trendem wzrostu kubatury budynków oraz oczekiwaniami w odniesieniu do przyszłego otoczenia urbanistycznego ukierunkowanego na zrównoważony rozwój. Artykuł przedstawia ujęcie struktury mieszkaniowej w kontekście zdefiniowanych zakresów tematycznych. Mianowicie jest to systemowe podejście do problemu projektowego struktur wielofunkcyjnych kreujących współczesną tkankę mieszkaniową w rozwijających się ośrodkach miejskich. Tworzenie miast inteligentnych z istniejących ośrodków miejskich oraz nowoprojektowanych ośrodków przewiduje kompleksowo dobrane wytyczne projektowe. Kluczowa jest integralność a zarazem interoperacyjność struktury dynamicznej, która może stanowić podstawę do rozwijania nowych oraz ulepszania istniejących systemów. Opracowana modelowa struktura tworzenia i podtrzymania systemu opracowana jest w oparciu o algorytm genetyczny i została przedstawiona w postaci sieci neuronowej, która uwzględnia zastosowanie sztucznej inteligencji (SI). Określona struktura przewidziana jest jako narzędzie wspomagające nadzór i decyzyjność w procesie projektowania i zarządzania współczesnym budynkiem wielofunkcyjnym w jego nowo planowanym otoczeniu.
EN
The contemporary approach to creating the residential function is confronted with the trend of increasing the volume of buildings and expectations regarding the future urban environment focused on sustainable development. This paper presents an overview of the residential structure in the context of defined thematic scopes. Namely, it is a systemic approach to the problem of designing mixed-use buildings which create a modern residential structure in developing urban centres. The creation of smart cities from existing urban areas and newly designed centres involves comprehensively defined design guidelines. The key is the integrity and interoperability of the dynamic structure which can serve as a basis for developing new systems and/or improving the existing ones. The developed model structure for creating and maintaining the system is based on a genetic algorithm and is presented in the form of a neural network that involves the use of artificial intelligence(AI). The specific structure is intended as a tool to support supervision and decision-making in the process of designing and managing contemporary mixed-use buildings in their newly planned surroundings.
Nagród Nobla z zasady nie przyznawano za osiągnięcia techniczne, ponieważ taka była wola fundatora Nagrody, Alfreda Nobla. Jednak w bieżącym, 2024 roku, komisje przyznające nagrody w dziedzinie Fizyki i Chemii podjęły (niezależnie od siebie) decyzję, że nagrody te zostaną przyznane twórcom tak zwanych sieci neuronowych (narzędzi sztucznej inteligencji należących do informatyki) oraz za kreatywne zastosowanie tych sieci. W ten sposób czterech tegorocznych Noblistów to są w istocie technicy. W artykule objaśniono najpierw, czym są owe sieci neuronowe, za których rozwój i stosowanie przyznano omawiane tu nagrody, a potem wskazano, jaki wkład do rozwoju i zastosowań sieci neuronowych wnieśli tegoroczni Nobliści: John Hopfield i Geoffrey Everest Hinton nagrodzeni w Fizyce oraz Demis Hassabis oraz John Jumper, którym przyznano Nagrodę Nobla w Chemii. Miejmy nadzieję, że ta czwórka nagrodzonych informatyków przełamie barierę i w przyszłych latach Nagrody Nobla będą także otrzymywać inni technicy. Może doczekamy się elektryka z ową Nagrodą?
EN
The Nobel Prizes were not generally awarded for technical achievements, because that was the will of the founder of the Prize, Alfred Nobel. However, in the current, 2024, committees awarding the prizes in Physics and Chemistry decided (independently of each other) that these prizes would be awarded to creators of so-called neural networks (artificial intelligence tools belonging to computer science) and for creative applications of these networks. Thus, four of this year’s Nobel Prize winners are in fact technicians. This article first explains what these neural networks are, for the development and application of which the prizes discussed here are awarded, and then indicates what contribution to the development and applications of neural networks was made by this year’s Nobel Prize winners: John Hopfield and Geoffrey Everest Hinton, awarded in Physics, and Demis Hassabis and John Jumper, who were awarded the Nobel Prize in Chemistry. Let’s hope that these four awarded computer scientists will break the barrier and in the future, other technicians will also receive the Nobel Prize. Maybe we will see an electrician with the Prize?
The aim of the article is to present the generative technology of artificial intelligence and a general analysis of its achievements and technological limitations. In turn, the hypothesis is as follows: data is the main factor ensuring the development of generative AI. The identified research niche includes stimulants of this development, the need to clarify the concept of generative AI and the indication of the most frequently used sources and methods of obtaining data. At the beginning, the concept and genesis of artificial intelligence were explained, which was necessary to move on to further considerations regarding the analyzed generative artificial intelligence. The self-learning mechanisms used by this type of artificial intelligence are discussed, consisting mainly in the analysis of specific data sets, thanks to which computers learn things that have not been known before. The advantages of generative artificial intelligence were also indicated, including increased productivity, greater efficiency and high creativity. Part of the attention was also paid to the limitations of this technology, including inaccurate and fuzzy output information, uncritical analyzes and often biased conclusions, copyright infringement and high requirements for memory and computing power of computers. Two factors have been identified that have recently stimulated the development of generative intelligence, i.e. the growing computing power of computers and easy access to large data sets. The main subject of considerations are large data sets, dynamically and uncontrollably self-replicating in Internet servers. Today, data resources are collected very efficiently, including: in Big Data, Cloud Computing and Internet of Things technologies, and their use is almost cost-free and publicly available. It was enough to improve the technology of artificial neural networks, expand multi-layer machine learning and create deep learning for generative intelligence to gain enormous momentum and become a symbol of the beginning of the 21st century. The whole investigation was summarized with a synthetic ending.
PL
Celem artykułu jest przybliżenie technologii generatywnej sztucznej inteligencji i ogólna analiza jej osiągnięć i ograniczeń technologicznych. Z kolei postawiona hipoteza brzmi następująco: dane są głównym czynnikiem zapewniającym rozwój generatywnej sztucznej inteligencji. Dostrzeżona nisza badawcza obejmuje stymulanty tego rozwoju, potrzebę doprecyzowania samego pojęcia generatywnej sztucznej inteligencji oraz wskazanie najczęściej wykorzystywanych źródeł i metod pozyskiwania danych. Na wstępie wyjaśniono pojęcie i genezę sztucznej inteligencji, co było niezbędne, żeby przejść do dalszych rozważań dotyczących analizowanej generatywnej sztucznej inteligencji. Omówiono mechanizmy samouczenia wykorzystywane przez ten rodzaj sztucznej inteligencji, polegające głównie na analizie określonych zbiorów danych, dzięki którym komputery uczą się od postaw rzeczy dotychczas nieznanych. Wskazano również zalety generatywnej sztucznej inteligencji, wśród których wymienić można zwiększoną produktywność, większą wydajność i dużą kreatywność. Cześć uwagi poświęcono także ograniczeniom tej technologii, są to między innymi niedokładne i rozmyte informacje wyjściowe, bezkrytyczne analizy i często stronnicze wnioski, czy naruszanie praw autorskich oraz wysokie wymagania w zakresie pamięci i mocy obliczeniowej komputerów. Wskazano dwa czynniki stymulujące w ostatnich czasach rozwój inteligencji generatywnej, tj. rosnące moce obliczeniowe komputerów oraz łatwą dostępność do wielkich zbiorów danych. Zasadniczym przedmiotem rozważań są wielkie zbiory danych, dynamicznie w sposób niekontrolowany samoreplikujące się w serwerach internetowych. Zasoby danych są dziś bardzo sprawnie gromadzone m.in. w technologii Big Data, Cloud Computing i Internet of Things, a ich użytkowanie jest prawie bezkosztowe i ogólnodostępne. Wystarczyło poprawić technologię sztucznych sieci neuronowych, rozszerzyć wielowarstwowe nauczanie maszynowe i stworzyć uczenie głębokie, aby inteligencja generatywna nabrała ogromnego tempa i stała się symbolem początków XXI wieku. Całość dociekań podsumowano syntetycznym zakończeniem.
Celem pracy jest zaprezentowanie metod klasyfikacji sygnałów EEG w interfejsach mózg-komputer (BCI) z wykorzystaniem sieci neuronowych. Dzięki ich zdolności do modelowania złożonych zależności w danych, możliwe jest skuteczniejsze rozpoznawanie wzorców aktywności mózgowej, co przyczynia się do poprawy dokładności i szybkości działania systemów BCI. W pracy omówiono architektury sieci neuronowych wykorzystywane do analizy sygnałów EEG, takie jak sieci konwolucyjne (CNN) czy rekurencyjne (RNN). Badania pokazują, że te metody mają ogromny potencjał w zastosowaniach takich jak sterowanie urządzeniami wspomagającymi, komunikacja oraz rozrywka.
EN
The aim of this paper is to present methods for classifying EEG signals in brain-computer interfaces (BCIs) using neural networks. Thanks to their ability to model complex relationships in the data, it is possible to recognise patterns of brain activity more effectively, which contributes to improving the accuracy and speed of BCI systems. This paper discusses neural network architectures used to analyse EEG signals, such as convolutional networks (CNNs) or recurrent networks (RNNs). The research shows that these methods have immense potentialin applications such as assistive device control, communication,and entertainment.
W artykule zaprezentowano nową metodę predykcji zajętości pasma w kanale radiowym stosującą głębokie sieci neuronowe. Metoda ta wykorzystuje strukturę autoenkodera do wieleopozoiomowej kompresji spektrogramów sygnału radiowego, co pozwala na efektywne kodowanie i dekodowanie sygnału radiowego. Implementacja prostych warstaw liniowych umożliwia szybką generację sygnału przewidywanego (predykcję spektrogramu), co jest istotne dla dynamicznie zmieniających się warunków w kanale radiowym. Dzięki zastosowaniu opisanej w artykule metodzie możliwe jest precyzyjne przewidywanie zakresów zajętości pasma radiowego dla ustalonych okresów predykcji.
EN
The article presents a new prediction of band width occupancy in radio channels, which are integrated into a neural network. This method utilizes the structure of an autoencoder for multilevel compression of the radio signal's spectrogram, allowing for efficient encoding and decoding of the radio signal. The implementation of simple linear layers enables fast generation of the predicted signal (spectrogram prediction), which is crucial for dynamically changing conditions in radio channels. Thanks to the application of the method described in the article, it is possible to predict the ranges of radio bandwidth occupancy.
Niniejsza publikacja prezentuje przegląd metod detekcji oraz klasyfikacji sygnałów radiowych wykorzystywanych do komunikacji z bezzałogowymi statkami powietrznymi. Artykuł przedstawia zarówno techniki wstępnego przetwarzania sygnału, algorytmy detekcyjne, jak również wybrane sposoby klasyfikacji sygnałów, bazujące na technikach uczenia maszynowego oraz sieciach neuronowych. Dodatkowo prezentowane są architektury wybranych algorytmów detekcyjnych w ujęciu złożoności obliczeniowej oraz skuteczności detekcji pożądanych sygnałów.
EN
This publication presents an overview of detection and classification methods of radio signals used to communicate with unmanned aerial vehicle. The article presents signal pre-processing techniques, detection algorithms, as well as selected signal classification problems based on ma- chine learning techniques and neural networks. Additionally, the architectures of selected detection algorithms are presented in terms of computational complexity and effectiveness of detecting the desired signals.
W artykule przedstawiono nowoczesne podejścia do watermakingu wideo wspierającego sztuczną inteligencją, koncentrując się na kluczowych wyzwaniach technicznych oraz perspektywach rozwoju tej technologii. W pierwszej części omówiono rolę AI w poprawie odporności na ataki, wydajności i skalowalności oraz w podnoszeniu jakości znaków wodnych wideo. W drugiej części zaprezentowano perspektywy rozwoju obejmujące integrację ze strukturami sieci neuronowych, takimi jak Vision Transformers, relacyjne głębokie uczenie i uczenie ze wzmocnieniem.
EN
The article presents modern approaches to video watermaking suport by artificial intelligence, focusing on key technical challenges and development prospects for this technology. The first part discussed the role of AI in improving attack resistance, performance and scalability, and in improving the quality of video watermaking. The second part presents development prospects, including integrationt with neural network structures such as Vision Transformers, relations deep learning, and reinforcement learning.
W artykule przedstawiono badania dotyczące lokalizacji urządzeń nadawczych w terenie zurbanizowanym przy użyciu zaawansowanych technik takich jak algorytm MUSIC, wsteczne śledzenie promieni i sztuczna inteligencja. Zastosowanie tych metod pozwoliło na znaczną poprawę dokładności lokalizacji, szczególnie przy użyciu sieci neuronowych do filtracji danych z BR a poprzez to na znaczące zwiększenie dokładności lokalizacji w terenie zurbanizowanym.
EN
This article presents research on the localization of transmitting devices in urban areas using advanced techniques such as MUSIC algorithm, reverse raytracing and artificial intelligence. The application of these methods significantly improved localization accuracy, especially when using neural networks for filtering raytracing data, and consequently increase accuracy in the urban environment.
Artykuł prezentuje metody optymalizacji topologii z udziałem sztucznych sieci neuronowych wraz z implementacjami o otwartym kodzie. Algorytmy te skupiają się głównie na optymalizacji konstrukcji, jednak podjęto także próby optymalizacji przewodnictwa cieplnego oraz interakcji płyn-konstrukcja. W pracy przedstawiono porównanie istotnych cech algorytmów oraz podsumowano wyniki przeprowadzonych eksperymentów z ich użyciem. Ponadto nakreślono perspektywy i ograniczenia przy stosowaniu sztucznych sieci neuronowych do zagadnienia optymalizacji.
EN
The article presents methods of topology optimization using artificial neural networks with their open-source implementations. The algorithms are focused mainly on structural optimization, though some attempts of heat transfer and fluid-structure interaction optimizing were made. The paper presents a comparison of essential features of the algorithms and sums up conducted experiments results. Furthermore, perspectives and limitations of using artificial neural networks for optimization task were outlined.
Nagroda Nobla z fizyki w 2024 została przyznana Johnowi J. Hopfieldowi z Uniwersytetu w Princeton i Geoffrey’owi E. Hintonowi z Uniwersytetu w Toronto za fundamentalne odkrycia i wynalazki umożliwiające uczenie maszynowe przy użyciu sztucznych sieci neuronowych. Choć wywołała kontrowersje wśród naukowców, to wpisuje się ona w trend nagradzania twórców nowych przyrządów do badania świata, a takim staje się ostatnio uczenie maszynowe. Opisuję w tym artykule dokonania noblistów, w szczególności sieć Hopfielda i maszynę Boltzmanna i wyjaśniam, jak różnią się od współczesnego paradygmatu uczenia maszynowego. Zwracam też uwagę na ograniczenia sieci neuronowych, a także ekscytujący dwukierunkowy wpływ, jaki wciąż mają na siebie nawzajem uczenie maszynowe i fizyka.
EN
The 2024 Nobel Prize in Physics was awarded to John J. Hopfield of Princeton University and Geoffrey E. Hinton of the University of Toronto for fundamental discoveries and inventions that enable machine learning using artificial neural networks. Although controversial among scientists, the award is part of a trend of rewarding creators of new devices for studying the world, and machine learning has recently become such a device. In this article, I describe the achievements of the Nobel Prize winners, in particular the Hopfield network and the Boltzmann machine, and explain how they differ from the modern paradigm of machine learning. I also describe the limitations of current neural networks, as well as the exciting bidirectional influence that machine learning and physics continue to have on each other.
Artykuł przedstawia problem prognozowania generacji energii elektrycznej w małych systemach fotowoltaicznych (PV). Celem opracowanych długoterminowych prognoz jest możliwość poprawnego zarządzania systemem elektroenergetycznym poprzez podejmowanie odpowiednich działań zachowawczych. Przeanalizowano czynniki atmosferyczne wpływające na pozyskiwanie energii elektrycznej w systemach fotowoltaicznych. Dokonano porównania wybranych modeli prognostycznych z wykorzystaniem uczenia maszynowego, m.in. sieci neuronowych MLP oraz metody wektorów nośnych SVM. Zostały wybrane mierniki pozwalające określić trafność (dokładność) prognoz. Określenie jakości prognoz bazowało na stanach faktycznych pogody, a nie na jej prognozie. Przedstawiono sposób przygotowania danych do utworzenia modeli prognostycznych i zaprezentowano najlepsze modele regresyjne. Do tego celu wykorzystano bibliotekę Scikit-learn umożliwiającą tworzenie skryptów w języku Python. W rozpatrywanym zespole fotowoltaicznym najlepsze rezultaty uzyskano dla modeli MLPRegressor, CatBoostRegressor i SVR. Wykorzystano rzeczywiste dane pomiarowe z systemu paneli ustawionych optymalnie o mocy 3,0 kWp. Dla modelu MLPRegressor osiągnięto największy współczynnik determinacji 0,605 oraz najmniejszy pierwiastek błędu średniokwadratowego 1,79 KWh dla średniej dziennej generacji energii elektrycznej w okresie od kwietnia do września 2022 r. wynoszącej 11,65 kWh.
EN
The article presents data analysis for predicting energy production in photovoltaic (PV) power plant systems. The purpose of long-term forecasts is to determine the effectiveness of preventive actions and manage the power system effectively. Climate variables affecting the production of electricity in photovoltaic systems were analyzed. Forecasting methods using machine learning techniques such as Multi-Layer Perceptron (MLP) neural networks and Support Vector Machine (SVM) were compared. In addition, metrics were selected to determine the quality of forecasts. Determining the quality of forecasts was based on the actual varying conditions, not on the weather forecast data. The way of data preparation to create forecasting models were presented and the models with the best metrics were selected. For this purpose, the Scikit-learn library was used to create scripts in Python. The best results were obtained for regression models: MLPRegressor, CatBoostRegressor and Support Vector Regression. Actual measurement data from a system of optimally-positioned panels with a power of 3.0 kWp were used. For the MLPRegressor model, the highest coefficient of determination 0.605 was achieved with the smallest root-mean-square error of 1.79 KWh.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.