Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 860

Liczba wyników na stronie
first rewind previous Strona / 43 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  neural networks
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 43 next fast forward last
1
EN
The aim of the article is to present the generative technology of artificial intelligence and a general analysis of its achievements and technological limitations. In turn, the hypothesis is as follows: data is the main factor ensuring the development of generative AI. The identified research niche includes stimulants of this development, the need to clarify the concept of generative AI and the indication of the most frequently used sources and methods of obtaining data. At the beginning, the concept and genesis of artificial intelligence were explained, which was necessary to move on to further considerations regarding the analyzed generative artificial intelligence. The self-learning mechanisms used by this type of artificial intelligence are discussed, consisting mainly in the analysis of specific data sets, thanks to which computers learn things that have not been known before. The advantages of generative artificial intelligence were also indicated, including increased productivity, greater efficiency and high creativity. Part of the attention was also paid to the limitations of this technology, including inaccurate and fuzzy output information, uncritical analyzes and often biased conclusions, copyright infringement and high requirements for memory and computing power of computers. Two factors have been identified that have recently stimulated the development of generative intelligence, i.e. the growing computing power of computers and easy access to large data sets. The main subject of considerations are large data sets, dynamically and uncontrollably self-replicating in Internet servers. Today, data resources are collected very efficiently, including: in Big Data, Cloud Computing and Internet of Things technologies, and their use is almost cost-free and publicly available. It was enough to improve the technology of artificial neural networks, expand multi-layer machine learning and create deep learning for generative intelligence to gain enormous momentum and become a symbol of the beginning of the 21st century. The whole investigation was summarized with a synthetic ending.
PL
Celem artykułu jest przybliżenie technologii generatywnej sztucznej inteligencji i ogólna analiza jej osiągnięć i ograniczeń technologicznych. Z kolei postawiona hipoteza brzmi następująco: dane są głównym czynnikiem zapewniającym rozwój generatywnej sztucznej inteligencji. Dostrzeżona nisza badawcza obejmuje stymulanty tego rozwoju, potrzebę doprecyzowania samego pojęcia generatywnej sztucznej inteligencji oraz wskazanie najczęściej wykorzystywanych źródeł i metod pozyskiwania danych. Na wstępie wyjaśniono pojęcie i genezę sztucznej inteligencji, co było niezbędne, żeby przejść do dalszych rozważań dotyczących analizowanej generatywnej sztucznej inteligencji. Omówiono mechanizmy samouczenia wykorzystywane przez ten rodzaj sztucznej inteligencji, polegające głównie na analizie określonych zbiorów danych, dzięki którym komputery uczą się od postaw rzeczy dotychczas nieznanych. Wskazano również zalety generatywnej sztucznej inteligencji, wśród których wymienić można zwiększoną produktywność, większą wydajność i dużą kreatywność. Cześć uwagi poświęcono także ograniczeniom tej technologii, są to między innymi niedokładne i rozmyte informacje wyjściowe, bezkrytyczne analizy i często stronnicze wnioski, czy naruszanie praw autorskich oraz wysokie wymagania w zakresie pamięci i mocy obliczeniowej komputerów. Wskazano dwa czynniki stymulujące w ostatnich czasach rozwój inteligencji generatywnej, tj. rosnące moce obliczeniowe komputerów oraz łatwą dostępność do wielkich zbiorów danych. Zasadniczym przedmiotem rozważań są wielkie zbiory danych, dynamicznie w sposób niekontrolowany samoreplikujące się w serwerach internetowych. Zasoby danych są dziś bardzo sprawnie gromadzone m.in. w technologii Big Data, Cloud Computing i Internet of Things, a ich użytkowanie jest prawie bezkosztowe i ogólnodostępne. Wystarczyło poprawić technologię sztucznych sieci neuronowych, rozszerzyć wielowarstwowe nauczanie maszynowe i stworzyć uczenie głębokie, aby inteligencja generatywna nabrała ogromnego tempa i stała się symbolem początków XXI wieku. Całość dociekań podsumowano syntetycznym zakończeniem.
EN
The study sought to use computer techniques to detect selected psychological traits based on the nature of the writing and to evaluate the effectiveness of the resulting software. Digital image processing and deep neural networks were used. The work is complex and multidimensional in nature, and the authors wanted to demonstrate the feasibility of such a topic using image processing techniques and neural networks and machine learning. The main studies that allowed the attribution of psychological traits were based on two models known from the literature, KAMR and DA. The evaluation algorithms that were implemented allowed the evaluation of the subjects and the assignment of psychological traits to them. The DA model turned out to be more effective than the KAMR model.
PL
Stan techniczny infrastruktury komunalnej jest nieustannie w centrum zainteresowania z uwagi na konieczność utrzymania ustabilizowanej gospodarki wodnej, która może być zaburzona w sytuacji występowania wielu awarii i uszkodzeń sieci wodociągowej. Nie tylko liczba, ale również rodzaj uszkodzeń jest zmienną, która powinna być przedmiotem analiz technicznych, ekonomicznych i niezawodnościowych. W pracy przedstawiono porównanie wyników klasyfikacji uszkodzeń przewodów wodociągowych z wykorzystaniem dwóch metod opartych o założenia sztucznej inteligencji, czyli metody drzew klasyfikacyjnych i algorytmu sieci neuronowych. Celem pracy było sprawdzenie, czy trafność klasyfikacji w oparciu o perceptron wielowarstwowy będzie większa niż uzyskano to kilka lat temu w autorskich badaniach podczas analizy metody drzew klasyfikacyjnych. Do modelowania zastosowano dane eksploatacyjne z istniejącego jednego z większych systemów wodociągowych w Polsce. Przeanalizowano kilka wariantów różniących się od siebie rozmiarem wektora wejściowego. Uzyskane wyniki nie są zadowalające, gdyż tylko najbardziej licznie występujące w zbiorze danych uszkodzenia, zostały zaklasyfikowane poprawnie w ok. 80%, a w przypadku innych rodzajów uszkodzeń dokładność klasyfikacji była minimalna. W związku z tym konieczna wydaje się zmiana podejścia w kolejnych etapach pracy nad zagadnieniem przewidywania zmiennych jakościowych.
EN
The technical condition of municipal infrastructure is continually in the centre of attention. It is necessary to maintain water management in stable conditions. Many failures of water pipes could lead to destabilize the whole water management in the cities. Not only the number of damage, but also their kinds should be analysed using technical, economical and reliability analysis. The comparison of classification results of kinds of water pipes damage using two artificial intelligence methods (classification trees and neural networks) was presented in the paper. The aim of the work was to check if classification accuracy using multilayer perceptron is higher than in other original investigations carried out several years ago when classification trees were analysed. Exploitation data from water supply system were used for modelling purposes. Several configurations with different size of input vector were investigated. Obtained results are not satisfactory. Only the most numerous classified in approx. 80%. For other kinds of failures the classification accuracy was minimal. It is necessary to change, in the next work stages, the investigation approach of quality variables prediction.
EN
The considered methods make it possible to develop the structure of diagnostic systems based on neural networks and implement decision support systems in classification diagnostic problems. The study uses general special methods of data mining and the principles of constructing an artificial intelligence system based on neural networks. The problems that arise when filling knowledge bases and training neural networks are highlighted. Methods for developing models of intelligent data processing for diagnostic purposes based on neural networks are proposed. The authors developed and verified an activation function for intermediate neural levels, which allows the use of weighting coefficients as probabilities of diagnostic processes and avoids the problem of local minima when using gradient descent methods. The authors identified special problems that may arise during the practical implementation of a decision support system and the development of knowledge bases. An original activation function for intermediate layers is proposed, obtained based on the modernization of the Gaussian error function. The experience of using the considered methods and models allows us to implement artificial intelligence diagnostic systems in various classification problems.
PL
Rozważane metody pozwalają na opracowywanie struktury systemów diagnostycznych opartych na sieciach neuronowych oraz wdrażanie systemów wspomagania decyzji w klasyfikacji problemów diagnostycznych. W pracy zastosowano ogólnie specjalistyczne metody eksploracji danych oraz zasady budowy systemu sztucznej inteligencji opartego na sieciach neuronowych.. Zwrócono uwagę na problemy pojawiające się przy wypełnianiu baz wiedzy i szkoleniu sieci neuronowych. Zaproponowano metody opracowywania modeli inteligentnego przetwarzania danych do celów diagnostycznych w oparciu o sieci neuronowe. Autorzy opracowali i zweryfikowali funkcję aktywacji dla pośrednich poziomów neuronowych, która pozwala na wykorzystanie współczynników ważących jako prawdopodobieństw procesów diagnostycznych i pozwala uniknąć problemu minimów lokalnych przy stosowaniu metod gradientowego opadania. Autorzy zidentyfikowali szczególne problemy, które mogą pojawić się podczas praktycznego wdrażania systemu wspomagania decyzji i rozwoju baz wiedzy. Zaproponowano oryginalną funkcję aktywacji warstw pośrednich, otrzymaną w oparciu o modernizację funkcji błędu Gaussa. Doświadczenie w stosowaniu rozważanych metod i modeli pozwala na wdrażanie systemów diagnostycznych sztucznej inteligencji w różnych problemach klasyfikacyjnych.
EN
Advances in cybersecurity are crucial for a country's economic and national security. As data transmission and storage exponentially increase, new threat detection and mitigation techniques are urgently needed. Cybersecurity has become an absolute necessity, with the ever-increasing transmitted networks from day to day causing exponential growth of data that is being stored on servers. In order to thwart sophisticatedattacks in the future, it willbe necessary to regularly update threat detection and data preservation techniques. Generative adversarial networks (GANs) are a class of unsupervised machine learning models that can generate synthetic data. GANs are gaining importance in AI-based cybersecurity systems for applications suchas intrusion detection, steganography, cryptography, and anomaly detection. This paper provides a comprehensive review of research on applying GANs for cybersecurity, including an analysis of popular cybersecurity datasets and GAN model architectures used in these studies.
PL
Postępy w cyberbezpieczeństwie mają kluczowe znaczenie dla bezpieczeństwa gospodarczego i narodowego kraju. Ponieważ transmisja i przechowywanie danych gwałtownie rośnie, pilnie potrzebne są nowe techniki wykrywania i łagodzenia zagrożeń. Cyberbezpieczeństwo stało się absolutną koniecznością, ponieważ stale rosnąca liczba przesyłanych sieci z dnia na dzień powoduje wykładniczy wzrost danych przechowywanych na serwerach. Aby w przyszłości udaremnić wyrafinowane ataki, konieczna będzie regularna aktualizacja technik wykrywania zagrożeń i zabezpieczania danych. Generatywne sieci przeciwstawne (GAN) to klasa modeli uczenia maszynowego bez nadzoru, które mogą generować dane syntetyczne. Sieci GAN zyskują na znaczeniu w systemach cyberbezpieczeństwa opartych na sztucznej inteligencji do zastosowań takich jak wykrywanie włamań, steganografia, kryptografia i wykrywanie anomalii. W artykule dokonano kompleksowego przeglądu badań nad zastosowaniem sieci GAN do celów cyberbezpieczeństwa, w tym analizę popularnych zbiorów danych dotyczących cyberbezpieczeństwa oraz architektur modeli GAN wykorzystanych w tych badaniach.
EN
Systemic Lupus Erythematosus (SLE) is a complicated autoimmune disease that can present with a variety of clinical symptoms, making precise prognosis difficult. Because SLE has a wide range of symptoms and may overlap with other autoimmune and inflammatory disorders, making a diagnosis can be challenging. This study creates a precise and accurate model for the prediction of SLE using the GEO dataset. For cost-effective data collection and analysis, feature selection might be essential in some applications, particularly in healthcare and scientific research. The strength of Artificial Neural Networks (ANN) for Systemic Lupus Erythematosus prediction and the Coyote Optimization Algorithm (COA) for feature selection are combined in this study. The COA is an optimization method influenced by nature and coyote hunting behavior. This study attempts to improve the effectiveness of subsequent predictive modeling by using COA to identify a subset of significant features from high-dimensional datasets linked to SLE. A Multi-layer Feed-forward Neural Network, a potent machine learning architecture renowned for its capacity to discover complex patterns and correlations within data, is then given the chosen features. Because the neural network is built to capture SLE's intricate and non-linear structure, it offers a reliable foundation for precise classification and prediction. The accuracy of the COA-ANN model was 99.6%.
PL
Toczeń rumieniowaty układowy (SLE) jest skomplikowaną chorobą autoimmunologiczną, która może objawiać się różnymi objawami klinicznymi, co utrudnia dokładne rokowanie. Ponieważ SLE ma szeroki zakres objawów i może nakładać się na inne choroby autoimmunologiczne i zapalne, postawienie diagnozy może być trudne. Niniejsze badanie tworzy precyzyjny i dokładny model przewidywania SLE z wykorzystaniem zbioru danych GEO. W celu efektywnego kosztowo gromadzenia i analizy danych, wybór cech może być niezbędny w niektórych zastosowaniach, szczególnie w opiece zdrowotnej i badaniach naukowych. W niniejszym badaniu połączono siłę sztucznych sieci neuronowych (ANN) do przewidywania tocznia rumieniowatego układowego i algorytmu optymalizacji Coyote (COA) do wyboru cech. COA to metoda optymalizacji, na którą wpływ ma natura i zachowania łowieckie kojotów. Niniejsze badanie ma na celu poprawę skuteczności późniejszego modelowania predykcyjnego poprzez wykorzystanie COA do identyfikacji podzbioru istotnych cech z wielowymiarowych zbiorów danych powiązanych z SLE. Wielowarstwowa sieć neuronowa Feed-forward, potężna architektura uczenia maszynowego znana ze swojej zdolności do odkrywania złożonych wzorców i korelacji w danych, otrzymuje następnie wybrane cechy. Ponieważ sieć neuronowa została zbudowana w celu uchwycenia skomplikowanej i nieliniowej struktury SLE, oferuje ona niezawodną podstawę do precyzyjnej klasyfikacji i przewidywania. Dokładność modelu COA-ANN wyniosła 99,6%.
EN
Operational load monitoring (OLM) is an industrial process related to structural health monitoring, where fatigue of the structure is tracked. Artificial intelligence methods, such as artificial neural networks (ANNs) or Gaussian processes, are utilized to improve efficiency of such processes. This paper focuses on moving such processes towards green computing by deploying and executing the algorithm on low-power consumption FPGA where high-throughput and truly parallel computations can be performed. In the following paper, the OLM process of typical aerostructure (hat-stiffened composite panel) is performed using ANN. The ANN was trained using numerically generated data, of every possible load case, to be working with sensor measurements as inputs. The trained ANN was deployed to Xilinx Artix-7 A100T FPGA of a real-time microcontroller. By executing the ANN on FPGA (where every neuron of a given layer can be processed at the same time, without limiting the number of parallel threads), computation time could be reduced by 70% as compared to standard CPU execution. Series of real-time experiments were performed that have proven the efficiency and high accuracy of the developed FPGA-based algorithm. Adjusting the ANN algorithm to FPGA requirements takes some effort, however it can lead to high performance increase. FPGA has the advantages of many more potential parallel threads than a standard CPU and much lower consumption than a GPU. This is particularly important taking into account potential embedded and remote applications, such as widely performed monitoring of airplane structures.
EN
This paper presents a study on applying machine learning algorithms for the classification of a two-phase flow regime and its internal structures. This research results may be used in adjusting optimal control of air pressure and liquid flow rate to pipeline and process vessels. To achieve this goal the model of an artificial neural network was built and trained using measurement data acquired from a 3D electrical capacitance tomography (ECT) measurement system. Because the set of measurement data collected to build the AI model was insufficient, a novel approach dedicated to data augmentation had to be developed. The main goal of the research was to examine the high adaptability of the artificial neural network (ANN) model in the case of emergency state and measurement system errors. Another goal was to test if it could resist unforeseen problems and correctly predict the flow type or detect these failures. It may help to avoid any pernicious damage and finally to compare its accuracy to the fuzzy classifier based on reconstructed tomography images – authors’ previous work.
EN
The field of ophthalmic surgery demands accurate identification of specialized surgical instruments. Manual recognition can be time-consuming and prone to errors. In recent years neural networks have emerged as promising techniques for automating the classification process. However, the deployment of these advanced algorithms requires the collection of large amounts of data and a painstaking process of tagging selected elements. This paper presents a novel investigation into the application of neural networks for the detection and classification of surgical instruments in ophthalmic surgery. The main focus of the research is the application of active learning techniques, in which the model is trained by selecting the most informative instances to expand the training set. Various active learning methods are compared, with a focus on their effectiveness in reducing the need for significant data annotation – a major concern in the field of surgery. The use of convolutional neural networks (CNNs) and recurrent neural networks (RNNs) to achieve high performance in the task of surgical tool detection is outlined. The combination of artificial intelligence (AI), machine learning, and Active Learning approaches, specifically in the field of ophthalmic surgery, opens new perspectives for improved diagnosis and surgical planning, ultimately leading to an improvement in patient safety and treatment outcomes.
10
Content available Wybrane zagadnienia analizy szeregów czasowych
PL
Artykuł obejmuje przegląd wybranych zagadnień związanych z analizą i predykcją szeregów czasowych zawierających dane z notowaniami giełdowymi. Przedstawiona została taksonomia szeregów czasowych oraz scharakteryzowane główne kierunki spotykane w analizie danych giełdowych. Szerzej opisane zostały wybrane narzędzia analizy technicznej. W kolejnych rozdziałach dokonany został przegląd wybranych metod uczenia maszynowego, zarówno metod algorytmicznych jak i metod wykorzystujących sieci neuronowe, przydatnych w analizie i predykcji szeregów czasowych.
EN
The article provides an overview of selected problems related to the analysis and prediction of time series containing stock market data. The taxonomy of time series is presented, and the main directions encountered in the analysis of financial data are characterized. Selected tools of technical analysis are described in more detail. Subsequent chapters provide a review of selected machine learning methods, divided into a section on algorithmic methods and a section on neural networks useful in the analysis and prediction of time series.
EN
Every year, a large number of traffic accidents occur on Polish roads. However, the pandemic of recent years has reduced the number of these accidents, although the number is still very high. For this reason, all measures should be taken to reduce this number. This article aims to forecast the number of road accidents in Poland. Thus, using Statistica software, the annual data on the number of road accidents in Poland were analyzed. Based on actual past data, a forecast was made for the future, for the period 2022-2040. Forecasting the number of accidents in Poland was conducted using selected neural network models. The results show that a reduction in the number of traffic accidents is likely. The choice of the number of random samples (learning, testing and validation) affects the results obtained.
EN
This paper presents a method for the precise diagnosis of a diesel engine in an agricultural tractor based on the analysis of efficiency changes and parameters characterizing the process of fuel-air mixture preparation. We proposed that the technical condition be identified based on available data from the engine controller, as this enables the implementation of precise online diagnostics of an agricultural tractor. The method was verified using the original cycle, during which we simulated several engine defects leading to a change in conditions and quality of the processes of creating and burning the fuel/air/flue gas mixture. In the paper, we justified the selection of the points at which the engine parameters were measured, as they provide the most information and allow for efficient identification of damage. These results indicate the possibility of damage identification without the use of the diagnostic cycle in the operation of operator-driven vehicles and autonomous vehicles.
EN
Neural network based implementations for anomaly detection are proven to be successful for a range of communications applications. The inclusion of these automated methods involves vulnerability to adversarial attacks that affect a broad range of models. An adversarial attack consists in fabrication of small variations with respect to the standard data input, with the property of triggering a failure in the classification task at hand. In this study we present a review on adversarial environments, and we describe the preliminary results of our system architecture for the analysis of adversarial-resilient network anomaly detection systems.
PL
Implementacja sieci neuronowych do wykrywania anomalii sieciowych cieszy się dużym powodzenie. Niestety, tego rodzaju zautomatyzowane metody detekcji są podatne na tzw. ataki adwersaryjne. Atak tego rodzaju polega na spreparowaniu niewielkich odchyleń w stosunku do standardowych danych, co powoduje niepowodzenie w zakresie wykorzystywanego zadania klasyfikacji. Przedstawiamy przegląd metod wykrywania prowadzenia ataków adversaryjnych oraz opisujemy wstępne wyniki uzyskane dzięki zaproponowanej architekturze systemu mającego zapewnić odporność na takie ataki.
PL
W artykule przedstawiamy metodę ukrywania danych w obrazach z użyciem sieci generatywnych - GAN (Generative Adversarial Networks), do generowania obrazów zawierających ukryte dane. Proponowana metoda pozwala na efektywne ukrywanie danych w obrazach, co może znaleźć zastosowanie w wielu dziedzinach, takich jak ochrona prywatności, steganografia, czy znakowanie wodne. Przedstawione w artykule wyniki stanowią podstawę do dalszych badań nad ulepszaniem metody i jej zastosowaniem w praktyce.
EN
This paper presents a method for hiding data in images using Generative Adversarial Networks (GAN) to generate images with secret data. The proposed method makes it possible to hide data in images effectively, which can find applications in many fields, such as privacy protection, steganography, and watermarking. The results presented in the article provide a basis for further research on improving the method and its application in practice.
PL
W artykule przedstawiono innowacyjny algorytm ukrywania danych w obrazach oparty na klasyfikacji. Metoda pozwala na niezauważalne dla ludzkiego oka ukrycie danych, a jednocześnie zapewnia możliwość ich późniejszego wykrycia i rozpoznania bez konieczności posiadania klucza lub oryginalnego obrazu. Przeprowadzone eksperymenty potwierdzają skuteczność i niezawodność tej metody w porównaniu z innymi algorytmami. Proponowane rozwiązanie może się przyczynić do rozwoju takich dziedzin jak: bezpieczeństwo informacyjne, ochrona prywatności, autoryzacja i znakowanie wodne.
EN
The article presents an innovative algorithm for data hiding in images based on classification. The method allows imperceptible data hiding to the human eye while also providing the ability to later detect and recognise the hidden data without needing a key or the original image. The conducted experiments confirm the effectiveness and reliability of this method compared to other algorithms. The proposed solution can contribute to developing fields such as information security, privacy protection, authentication, and watermarking.
16
Content available remote Artificial intelligence: evolution, developments, applications, and future scope
EN
Artificial intelligence (AI) or Machine Intelligence (MI) is the most important and interesting technology in recent decades due to its vast application in almost every field of science and engineering. The MI techniques are the study of making intelligent machines that have human-like behaviors. The speedy advancement in this area has triggered the curiosity of many technologists, and researchers around the world, and various companies across several domains are inquisitive to explore its capabilities. AI technology is continuously changing the landscape of businesses as well as the personal and social activities of human beings due to advancements and research in this field. For any field which has obtained so much popularity in a very short duration, it is essential that technologists who focus on endeavors in AI, study its evolution, developments, applications, and future aspects of augmentation to achieve a better intuition into the area. This paper presents a comprehensive study of the past, present, and future aspects of AI technology for researchers and technologists. In this paper, we discuss the evolution, historical developments, important breakthroughs in continuous research, real-world applications, challenges of AI implication, and the future perspective of AI technology. Finally, we have discussed the role of AI in the optimization of the Integrated Circuit (IC).
PL
Sztuczna inteligencja (AI) lub inteligencja maszyn (MI) to najważniejsza i najbardziej interesująca technologia ostatnich dziesięcioleci ze względu na jej szerokie zastosowanie w niemal każdej dziedzinie nauki i inżynierii. Techniki MI to nauka o tworzeniu inteligentnych maszyn o ludzkich zachowaniach. Szybki postęp w tej dziedzinie wzbudził ciekawość wielu technologów i badaczy na całym świecie, a różne firmy z kilku dziedzin są zainteresowane zbadaniem jego możliwości. Technologia AI nieustannie zmienia krajobraz firm, a także osobiste i społeczne działania ludzi dzięki postępom i badaniom w tej dziedzinie. W przypadku każdej dziedziny, która zyskała tak dużą popularność w bardzo krótkim czasie, niezbędne jest, aby technolodzy, którzy koncentrują się na przedsięwzięciach w dziedzinie sztucznej inteligencji, badali jej ewolucję, rozwój, zastosowania i przyszłe aspekty rozszerzenia, aby uzyskać lepszą intuicję w tej dziedzinie. Niniejszy artykuł przedstawia kompleksowe badanie przeszłych, obecnych i przyszłych aspektów technologii sztucznej inteligencji dla badaczy i technologów. W tym artykule omawiamy ewolucję, wydarzenia historyczne, ważny przełom w ciągłych badaniach, zastosowania w świecie rzeczywistym, wyzwania związane z implikacją AI oraz przyszłe perspektywy technologii AI. Na koniec omówiliśmy rolę AI w optymalizacji układu scalonego (IC).
EN
Asignificant rise in Artificial Intelligence (AI) has impacted many applications around us, so much so that AI has now been increasingly used in safety-critical applications. AI at the edge is the reality, which means performing the data computation closer to the source of the data, as opposed to performing it on the cloud. Safety-critical applications have strict reliability requirements; therefore, it is essential that AI models running on the edge (i.e., hardware) must fulfill the required safety standards. In the vast field of AI, Deep Neural Networks (DNNs) are the focal point of this survey as it has continued to produce extraordinary outcomes in various applications i.e. medical, automotive, aerospace, defense, etc. Traditional reliability techniques for DNNs implementation are not always practical, as they fail to exploit the unique characteristics of the DNNs. Furthermore, it is also essential to understand the targeted edge hardware because the impact of the faults can be different in ASICs and FPGAs. Therefore, in this survey, first, we have examined the impact of the fault in ASICs and FPGAs, and then we seek to provide a glimpse of the recent progress made towards the fault-tolerant DNNs. We have discussed several factors that can impact the reliability of the DNNs. Further, we have extended this discussion to shed light on many state-of-the-art fault mitigation techniques for DNNs.
PL
Znaczący rozwój sztucznej inteligencji (SI) wpływa na wiele otaczających nas aplikacji, do tego stopnia, że SI jest obecnie coraz częściej wykorzystywana w aplikacjach o krytycznym znaczeniu dla bezpieczeństwa. Sztuczna inteligencja na brzegu sieci (Edge) jest rzeczywistością, co oznacza wykonywanie obliczeń na danych bliżej źródła danych, w przeciwieństwie do wykonywania ich w chmurze. Aplikacje o krytycznym znaczeniu dla bezpieczeństwa mają wysokie wymagania dotyczące niezawodności; dlatego ważne jest, aby modele SI działające na brzegu sieci (tj. sprzęt) spełniały wymagane standardy bezpieczeństwa. Z rozległej dziedziny sztucznej inteligencji, głębokie sieci neuronowe (DNN) są centralnym punktem tego badania, ponieważ nadal przynoszą znakomite wyniki w różnych zastosowaniach, tj. medycznych, motoryzacyjnych, lotniczych, obronnych itp. Tradycyjne techniki niezawodności implementacji w przypadku DNN nie zawsze są praktyczne, ponieważ nie wykorzystują unikalnych cech DNN. Co więcej, istotne jest również zrozumienie docelowego sprzętu brzegowego, ponieważ wpływ usterek może być różny w układach ASIC i FPGA. Dlatego też w niniejszym przeglądzie najpierw zbadaliśmy wpływ usterek w układach ASIC i FPGA, a następnie staramy się zapewnić wgląd w ostatnie postępy poczynione w kierunku DNN odpornych na błędy. Omówiliśmy kilka czynników, które mogą wpływać na niezawodność sieci DNN. Ponadto rozszerzyliśmy tę dyskusję, aby rzucić światło na wiele najnowocześniejszych technik ograniczania błędów w sieciach DNN.
EN
Wireless sensor networks (WSNs) are ad hoc and self-configuring networks having the possibility that any sensor node can connect or leave the network. With no central controller in WSN, wireless sensor nodes are considered responsible for data routing in the networks. The wireless sensor nodes are very small in size and have limited resources, therefore, it becomes difficult to recharge or replace the battery of the sensor nodes at far places. The present study focused on reducing the battery consumption of the sensor nodes by the deployment of the newly proposed Fault Tolerance Multipath Routing Protocol (MRP-FT) as compared with the existing Low Energy Adaptive Clustering Hierarchy (LEACH) protocol under particle swarm optimisation based fault tolerant routing (PSO-FT) technique. The proposed algorithm of MRP-FT-based on the dynamic clustering technique using Boltzmann learning of the neural network and the weights were adjusted according to the area of networks, number of nodes and rounds, the initial energy of nodes (E0), transmission energy of nodes (d
EN
The article focuses on a review and analysis of methods for reducing false alarms in video-based fire detection systems (VBFDS). The author of the article has designed a neural network and video-based flame detection algorithm to evaluate the effectiveness of methods found in the literature and other sources. The video-based flame detection algorithm was designed using a CIFAR-10-NET convolutional neural network. The D-Fire database, which contains 50000 fire images, was used to learn and test the algorithm. An error matrix was used to determine the effectiveness of the algorithm and methods to reduce the number of false alarms in video-based fire detection systems to determine parameters such as sensitivity (True Positive Rate, TPR), precision (Positive Predictive Value, PPV) and accuracy (ACC).
EN
The uniform closure of the neural networks with Heaviside activation is specified.
first rewind previous Strona / 43 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.