The F-16 aircraft, widely used by the Polish Army Air Force, requires modifications based on Artificial Intelligence (AI) algorithms to enhance its combat capabilities and performance. This study aims to develop comprehensive guidelines for this purpose by first describing F-16 systems and categorizing AI algorithms. Machine learning, deep learning, fuzzy logic, evolutionary algorithms, and swarm intelligence are reviewed for their potential applications in modern aircraft. Subsequently, specific algorithms applicable to F-16 systems are identified, with conclusions drawn on their suitability based on system features. The resultant analysis informs potential F-16 modifications and anticipates future AI applications in military aircraft, facilitating the guidance of new algorithmic developments and offering benefits to similar aircraft types. Moreover, directions for future research and development work are delineated.
Optimization of business processes and policies in a car rental company is an ongoing topic. Especially that each of these companies operates in slightly different local conditions and external environments. Testing new optimization algorithms is best done with simulation methods. A comprehensive rental simulation model can be built, for example, using the SimEvents library of the Matlab/Simulink environment. The paper focuses on the problem of preparing a sequence of customer requests in the short-term car rental system, necessary to carry out simulations in the SimeEvents environment. It was assumed that these data may come from the real world, or they may also be artificial data. A method of generating artificial sequences of customer requests and the structure of input data necessary to carry out this process have been proposed. The use of machine learning to build models that transform real data in such a way that it can be randomized was also tested.
W teledetekcji w ostatnich latach uzyskano duży postęp dzięki wprowadzeniu automatyzacji oraz zastosowaniu algorytmów sztucznej inteligencji. Nowe podejście pozwoliło wykryć zależności, które nie były widoczne dla człowieka i stał się możliwy analityczny opis rzeczywistości, który do tej pory głównie opierał się na intuicji. Jednym z wyzwań w zakresie teledetekcji gleb jest monitorowane stanu gleb w skali kraju oraz aktualizacja baz danych o glebach, w tym aktualizacja przebiegu wydzieleń klas bonitacyjnych. Celem niniejszych badań było sprawdzenie możliwości wykorzystania metod uczenia maszynowego do klasyfikacji gleb zgodnie z obowiązującą gleboznawczą klasyfikacją gruntów ornych z użyciem danych teledetekcyjnych i numerycznego modelu terenu (NMT). Jako dane źródłowe wykorzystano satelitarne obrazy optyczne Sentinel-2 i radarowe Sentinel-1 oraz cztery produkty pochodne NMT, opisujące cechy ważne z punktu widzenia klasyfikacji bonitacyjnej gleb. Klasyfikacje zostały przeprowadzone metodą lasów losowych i konwolucyjnych sieci neuronowych (CNN) na wybranym obszarze treningowym w różnych scenariuszach, a następnie wytrenowane modele zostały zweryfikowane na zestawie testowym. Niestety modele opisane lasami losowymi nie uzyskały dobrych wyników na zestawie testowym w przeciwieństwie do zestawu treningowego (skuteczność 70% vs 10%). Modele opisane przez CNN uzyskały wyniki podobne dla obu zestawów, lecz ich skuteczność była niska (40%).
EN
In recent years there was a large progress in remote sensing, thanks to applying automation and artificial intelligence algorithms. The new approach revealed relationships which were not visible for human operator and enabled analytical description of reality which was based on intuition so far. One of challenges of soil remote sensing is monitoring of soil condition in country scale and database actualisation including actualisation of soil valuation classes boundaries. The aim of the research was to find out possibilities of using machine learning methods for soil classification on arable land according to current Polish law with remote sensing data and digital elevation model (DEM). Used source data were optical satellite images of Sentinel-2 and radar of Sentinel-1, and four derived products of DEM describing significant features for soil valuation classification. Classification was done by random forests and convolutional neural networks (CNN) on selected training dataset in different scenarios and then trained models were verified on test dataset. Unluckily, models described by random forests were not successful on test dataset as much as on training dataset (accuracy 70% vs 10%). Models described by CNN had similar results for both datasets but the accuracy was low (40%).
The article presents an analysis of the accuracy of 3 popular machine learning (ML) methods: Maximum Likelihood Classifier (MLC), Support Vector Machine (SVM), and Random Forest (RF) depending on the size of the training sample. The analysis involved performing the classification of the content of a Landsat 8 satellite image (divided into 6 basic land cover classes) in 10 different variants of the number of training samples (from 2664 to 34711 pixels), estimating individual results, and a comparative analysis of the obtained results. For each classification variant, an error matrix was developed and on their basis, accuracy metrics were calculated: f1-score, precision and recall (for individual classes) as well as overall accuracy and kappa index of agreement (generally for the entire classification). The analysis showed a stimulating effect of the size of the training sample on the accuracy of the obtained classification results in all analyzed cases, with the most sensitive to this factor being MLC, showing the best effectiveness with the largest training sample and the smallest - with the smallest, and the least SVM, characterized by the highest accuracy with the smallest training sample, comparing to other algorithms.
PL
Artykuł przedstawia analizę dokładności 3 popularnych metod uczenia maszynowego: Maximum Likelihood Classifier (MLC), Support Vector Machine (SVM) oraz Random Forest (RF) w zależności od liczebności próbki treningowej. Analiza polegała na wykonaniu klasyfikacji treści zdjęcia satelitarnego Landsat 8 (w podziale na 6 podstawowych klas pokrycia terenu) w 10 różnych wariantach liczebności próbek uczących (od 2664 do 34711 pikseli), oszacowaniu poszczególnych wyników oraz analizie porównawczej uzyskanych wyników. Dla każdego wariantu klasyfikacji opracowano macierz błędów, a na ich podstawie obliczono metryki dokładności: F1-score, precision and recall (dla pojedynczych klas) oraz ogólną dokładność i wskaźnik zgodności Kappa (ogólnie dla całej klasyfikacji). Analiza wykazała stymulujący wpływ rozmiaru próbki uczącej na dokładność uzyskiwanych wyników klasyfikacji we wszystkich analizowanych przypadkach, przy czym najbardziej wrażliwym na ten czynnik był MLC, wykazujący się najlepszą skutecznością przy największej próbce treningowej i najmniejszą - przy najmniejszej, a najmniej SVM, cechujący się największą dokładnością przy najmniejszej próbce treningowej, w porównaniu do pozostałych algorytmów.
Sign language represents an efficient way for individuals with hearing impairments to communicate. We propose a sign recognition system into which several tools are integrated to help with the image pre-processing part. By doing so, a machine learning model was developed that does not require a lot of processing power because instead of using the images themselves, it uses extracted data from them to connect this model to a mobile interface that the users will use to recognise signed letters successfully. The communication between the client and the model is sustained through a local server. Introducing sign language into assembly processes is not only a gesture of respect for diversity and inclusion but also a strategic decision that brings tangible benefits. It improves communication, safety, employee morale and overall efficiency, an essential element in achieving operational excellence and an integrated workplace.
PL
Język migowy stanowi skuteczny sposób komunikacji dla osób z upośledzeniem słuchu. Proponujemy system rozpoznawania znaków, w którym zintegrowano kilka narzędzi pomagających we wstępnym przetwarzaniu obrazu. W ten sposób opracowano model uczenia maszynowego, który nie wymaga dużej mocy obliczeniowej, ponieważ zamiast korzystać z samych obrazów, wykorzystuje wyodrębnione z nich dane, aby połączyć ten model z interfejsem mobilnym, którego użytkownicy będą używać do skutecznego rozpoznawania podpisanych liter. Komunikacja między klientem a modelem odbywa się za pośrednictwem lokalnego serwera. Wprowadzenie języka migowego do procesów montażowych to nie tylko gest szacunku dla różnorodności i integracji, ale także strategiczna decyzja, która przynosi wymierne korzyści. Poprawia komunikację, bezpieczeństwo, morale pracowników i ogólną wydajność, co jest istotnym elementem w osiąganiu doskonałości operacyjnej i zintegrowanego miejsca pracy.
Kluczowym procesem pozwalającym zapewnić stabilność parametrów jakościowych produkowanego węgla i koksu jest proces rozpoznania złoża, pozwalający na osiągnięcie zamierzonego poziomu jakości poprzez odpowiednie harmonogramowanie ścian w aspekcie jakościowym. Jastrzębska Spółka Węglowa by sprostać wymaganiom rynku ciągle udoskonala swoje procesy w tym te związane z rozpoznaniem złoża i planowaniem produkcji. Wskaźniki reaktywności i wytrzymałości poreakcyjnej koksu są parametrami krytycznymi dla wydajnej pracy wielkiego pieca, niestety nie zawsze możliwe jest ich oznaczenie dla próbek geologicznych. W artykule omówiono możliwość zastosowania metod uczenia maszynowego w procesie prognozowania parametrów jakości koksu określanych testem Nippon Steel Corporation (NSC). W celu analizy danych i budowy modeli predykcyjnych wykorzystano oprogramowanie RapidMiner, które umożliwiło skuteczną eksplorację danych, budowę modeli oraz analizę wyników. Analiza historycznych danych geologicznych z pomocą popularnych technik uczenia maszynowego pokazała, że prace nad zastosowaniem sztucznej inteligencji w prognozowaniu jakości złoża są perspektywiczne i należy dążyć do identyfikacji najbardziej efektywnych podejść do tego zagadnienia.
EN
The key process for ensuring the stability of the quality parameters of the coal and coke produced is the process of bed reconnaissance, which allows the intended level of quality to be achieved through appropriate long-wall scheduling in terms of quality. To meet coal market demands, Jastrzębska Spółka Węglowa is constantly improving its processes, including those related to deposit reconnaissance and production planning. Coke reactivity and coke strength after reaction are critical parameters for efficient blast furnace operation; unfortunately, determining them for geological samples is not always possible. This paper discusses the possibility of using machine learning methods to predict coke quality parameters determined by Nippon Steel Corporation (NSC). RapidMiner software was used to analyze the data and build predictive models, which enabled efficient data mining, model building, and analysis of the results. Analysis of historical geological data with the help of popular machine learning techniques showed that work on applying AI in bed quality prediction is promising, and efforts should be made to identify the most effective approaches to this issue.
The aim of the article is to present the generative technology of artificial intelligence and a general analysis of its achievements and technological limitations. In turn, the hypothesis is as follows: data is the main factor ensuring the development of generative AI. The identified research niche includes stimulants of this development, the need to clarify the concept of generative AI and the indication of the most frequently used sources and methods of obtaining data. At the beginning, the concept and genesis of artificial intelligence were explained, which was necessary to move on to further considerations regarding the analyzed generative artificial intelligence. The self-learning mechanisms used by this type of artificial intelligence are discussed, consisting mainly in the analysis of specific data sets, thanks to which computers learn things that have not been known before. The advantages of generative artificial intelligence were also indicated, including increased productivity, greater efficiency and high creativity. Part of the attention was also paid to the limitations of this technology, including inaccurate and fuzzy output information, uncritical analyzes and often biased conclusions, copyright infringement and high requirements for memory and computing power of computers. Two factors have been identified that have recently stimulated the development of generative intelligence, i.e. the growing computing power of computers and easy access to large data sets. The main subject of considerations are large data sets, dynamically and uncontrollably self-replicating in Internet servers. Today, data resources are collected very efficiently, including: in Big Data, Cloud Computing and Internet of Things technologies, and their use is almost cost-free and publicly available. It was enough to improve the technology of artificial neural networks, expand multi-layer machine learning and create deep learning for generative intelligence to gain enormous momentum and become a symbol of the beginning of the 21st century. The whole investigation was summarized with a synthetic ending.
PL
Celem artykułu jest przybliżenie technologii generatywnej sztucznej inteligencji i ogólna analiza jej osiągnięć i ograniczeń technologicznych. Z kolei postawiona hipoteza brzmi następująco: dane są głównym czynnikiem zapewniającym rozwój generatywnej sztucznej inteligencji. Dostrzeżona nisza badawcza obejmuje stymulanty tego rozwoju, potrzebę doprecyzowania samego pojęcia generatywnej sztucznej inteligencji oraz wskazanie najczęściej wykorzystywanych źródeł i metod pozyskiwania danych. Na wstępie wyjaśniono pojęcie i genezę sztucznej inteligencji, co było niezbędne, żeby przejść do dalszych rozważań dotyczących analizowanej generatywnej sztucznej inteligencji. Omówiono mechanizmy samouczenia wykorzystywane przez ten rodzaj sztucznej inteligencji, polegające głównie na analizie określonych zbiorów danych, dzięki którym komputery uczą się od postaw rzeczy dotychczas nieznanych. Wskazano również zalety generatywnej sztucznej inteligencji, wśród których wymienić można zwiększoną produktywność, większą wydajność i dużą kreatywność. Cześć uwagi poświęcono także ograniczeniom tej technologii, są to między innymi niedokładne i rozmyte informacje wyjściowe, bezkrytyczne analizy i często stronnicze wnioski, czy naruszanie praw autorskich oraz wysokie wymagania w zakresie pamięci i mocy obliczeniowej komputerów. Wskazano dwa czynniki stymulujące w ostatnich czasach rozwój inteligencji generatywnej, tj. rosnące moce obliczeniowe komputerów oraz łatwą dostępność do wielkich zbiorów danych. Zasadniczym przedmiotem rozważań są wielkie zbiory danych, dynamicznie w sposób niekontrolowany samoreplikujące się w serwerach internetowych. Zasoby danych są dziś bardzo sprawnie gromadzone m.in. w technologii Big Data, Cloud Computing i Internet of Things, a ich użytkowanie jest prawie bezkosztowe i ogólnodostępne. Wystarczyło poprawić technologię sztucznych sieci neuronowych, rozszerzyć wielowarstwowe nauczanie maszynowe i stworzyć uczenie głębokie, aby inteligencja generatywna nabrała ogromnego tempa i stała się symbolem początków XXI wieku. Całość dociekań podsumowano syntetycznym zakończeniem.
Artificial intelligence (AI)-based clinical reasoning support systems in physiotherapy, and in particular data-driven (machine learning) systems, can be useful in making and reviewing decisions regarding functional diagnosis and formulating/maintaining/modifying a rehabilitation programme. The aim of this article is to explore the extent to which the opportunities offered by AI-based systems for clinical reasoning in physiotherapy have been exploited and where the potential for their further stimulated development lies.
PL
Systemy wspomagania wnioskowania klinicznego w fizjoterapii oparte na sztucznej inteligencji, a w szczególności na danych (uczenie maszynowe), mogą być przydatne w podejmowaniu i weryfikacji decyzji dotyczących diagnostyki funkcjonalnej ora formułowania/utrzymywania/modyfikowania programu rehabilitacji. Celem niniejszego artykułu jest zbadanie, w jakim stopniu możliwości oferowane przez systemy oparte na sztucznej inteligencji w zakresie rozumowania klinicznego w fizjoterapii zostały wykorzystane i gdzie leży potencjał ich dalszego stymulowanego rozwoju.
This review article explores the historical background and recent advances in the application of artificial intelligence (AI) in the development of radiofrequency pulses and pulse sequences in nuclear magnetic resonance spectroscopy (NMR) and imaging (MRI). The introduction of AI into this field, which traces back to the late 1970s, has recently witnessed remarkable progress, leading to the design of specialized frameworks and software solutions such as DeepRF, MRzero, and GENETICS-AI. Through an analysis of literature and case studies, this review tracks the transformation of AI-driven pulse design from initial proof-of-concept studies to comprehensive scientific programs, shedding light on the potential implications for the broader NMR and MRI communities. The fusion of artificial intelligence and magnetic resonance pulse design stands as a promising frontier in spectroscopy and imaging, offering innovative enhancements in data acquisition, analysis, and interpretation across diverse scientific domains.
W ostatnich latach ważnym czynnikiem wpływającym na rozwój sieci teleinformatycznych są metody uczenia maszynowego. Wynika to głównie z dużej konkurencji na rynku usług sieciowych, co pociąga za sobą bezustanną potrzebę jednoczesnego usprawnienia działania sieci komputerowych oraz obniżania kosztów działania sieci komputerowych. W artykule zostaną omówione przykładowe zastosowania metod uczenia maszynowego w sieciach teleinformatycznych. Zostaną przedstawione najnowsze technologie sieci teleinformatycznych, w których stosowane są metody uczenia maszynowego, w tym: automatyzacja sieci oraz koncepcja cyfrowego bliźniaka. Zostaną również zaprezentowane najważniejsze wyzwania związane ze stosowaniem metod uczenia maszynowego w sieciach teleinformatycznych, takie jak: dostęp do danych, potrzeba ciągłej aktualizacji modeli w związku ze zmieniającymi się wzorcami w sieciach, wyjaśnialną sztuczną inteligencję (ang. Explainable Artificial Intelligence).
EN
In recent years, machine learning (ML) methods have been an important factor influencing the development of communications networks. This is mainly due to the high competition in the ICT sector, which entails a relentless need to simultaneously improve the operation of communication computer and reduce the OPEX and CAPEX cost of networks. The paper will discuss examples of applications of machine learning methods in communication networks. The latest networking technologies that use machine learning methods will be presented, including network automation and digital twin. The most important challenges of applying machine learning methods in communication networks will also be described, including: datasets, updating ML models to changing patterns in networks, Explainable Artificial Intelligence. Keywords: communication network, machine learning, optimization, network automation, digital twin. The most important challenges of applying machine learning methods in communication networks will also be describes, including: datasets, updating ML models to changing patterns in networks, Explainable Artificial Intelligence.
Wykrywanie zajętości widma jest kluczowym zagadnieniem umożliwiającym dynamiczny dostęp do widma. Współcześnie w celu polepszenia detekcji popularne są rozwiązania z obszaru uczenia maszynowego, w tym uczenia federacyjnego (FL). Głównym wyzwaniem w tym kontekście jest ograniczony dostęp do danych treningowych. W pracy przedstawiono podejście rozproszone FL, skupiając się na węzłach pozbawionych dostępu do danych uczących. Omówiono wyniki eksperymentu sprzętowego polegającego na wykrywaniu sygnału DVB-T.
EN
Spectrum occupancy detection is a key enabler for dynamic spectrum access, where machine learning algorithms are successfully utilized for detection improvement. However, the main challenge is limited access to labeled data about users’ transmission presence needed in supervised learning models. We present a distributed federated learning approach that addresses this challenge for sensors without access to learning data. The paper discusses the results of the conducted hardware experiment, where FL has been applied for DVB-T signal detection.
Niniejsza praca analizuje podatności systemów wykrywania włamań w sieciach (NIDS) na ataki typu przeciwstawnego. Zaproponowano metodę identyfikacji optymalnych perturbacji w ruchu sieciowym, zwiększających niewykrywalność przez NIDS. Wyniki na zbiorze danych CTU-13 wykazały, że ataki te mogą zredukować dokładność wykrywania z 99,99% do około 40% w najlepszym przypadku. Podkreśla to konieczność zwiększenia odporności systemów opartych na uczeniu maszynowym na takie zagrożenia.
EN
This study investigates the vulnerability of Network Intrusion Detection Systems (NIDS) to adversarial attacks. A prototype method was implemented to identify optimal perturbations that evade NIDS detection. The results from the CTU-13 dataset demonstrated the effectiveness of the attacks, reducing detection accuracy from 99.99% to approximately 40% in the best scenario. These findings underscore the need to enhance the resilience of machine learning-based systems against such threats.
Sieci bezprzewodowe chcąc spełnić wymagania współczesnych aplikacji, stają się niezwykle złożone co utrudnia ich konfigurację. Aby poradzić sobie z tą złożonością, można użyć technik uczenia maszynowe- go. Niniejsza praca opisuje koncepcję przyjętą w projekcie MLDR dotyczącą opracowania i wdrożenia interfejsu radiowego sterowanego za pomocą technik uczenia maszynowego. Opisujemy koncepcję architektury, która natywnie wspiera uczenie maszynowe, rozważane przypadki użycia, oraz przykład zastosowania opracowywanej koncepcji.
EN
To meet the requirements of modern applications, wireless networks are becoming extremely complex, which makes their optimal configuration challenging. Ma- chine learning (ML) techniques can be used to address this challenge. This work describes the concept adopted in the MLDR project regarding the development and implementation of a radio interface controlled using machine learning techniques. We describe the architecture concept, which natively supports ML, the use cases considered, and an example of the application of the developed concept.
Prezentowane badania skupiają się na wykorzystaniu technik teledetekcyjnych w analizie stanu terenów zielonych. W pierwszej części badań główny nacisk kładziony jest na ocenę wizualną, wskaźniki wegetacyjne oraz chemiczną analizę próbek roślin. Za pomocą kamery multispektralnej i RGB pozyskuje się wielokanałowe obrazy, służące do wnioskowania na temat zdrowia roślin, ich kondycji oraz zawartości różnych składników chemicznych. Do tego celu użyto głębokich sieci neuronowych i zaawansowanych metod uczenia maszynowego. Praca prezentuje pionierskie narzędzie do monitorowania i zarządzania zielonymi przestrzeniami w duchu zrównoważonego rozwoju.
EN
The presented research focuses on the use of remote sensing techniques in the analysis of the condition of green areas. In the first part of the research, the main emphasis is placed on visual assessment, vegetation indicators and chemical analysis of plant samples. Using a multispectral and RGB camera, multi-channel images are obtained, used to draw conclusions about the health of plants, their condition and the content of various chemical components. For this purpose, deep neural networks and advanced machine learning methods were used. The work presents a pioneering tool for monitoring and managing green spaces in the spirit of sustainable development.
Autor artykułu przedstawił możliwe obszary wdrożenia sztucznej inteligencji w przemyśle prefabrykatów dla budownictwa. Artykuł zawiera m.in. opis dotychczasowych rozwiązań wykorzystujących sztuczną inteligencję, algorytmy genetyczne i sztuczne sieci neuronowe w prefabrykacji betonowej. Scharakteryzowane zostało pojęcie sztucznej inteligencji, jej geneza oraz zakres, w tym uczenie maszynowe, głębokie uczenie i sieci neuronowe wraz ze zdefiniowaniem ich zakresu działania. Dodatkowo zaprezentowano strukturę funkcjonalną wytwórni z jej podziałem na podsystemy pierwszego i drugiego stopnia oraz ich szczegółowym opisem. W kolejnej części artykuł odnosi się do obszarów wdrożenia sztucznej inteligencji. W tym celu autor zaproponował możliwe zastosowanie sztucznej inteligencji we wskazanych wcześniej zakresach podsystemów pierwszego stopnia. Podsumowanie artykułu porusza kwestie m.in. dalszego rozwoju sztucznej inteligencji w produkcji prefabrykatów dla budownictwa, w tym w kontekście czwartej rewolucji przemysłowej oraz potencjalnych zagrożeń i korzyścią z tym związanych.
EN
The author of the article presented possible areas of implementation of artificial intelligence in the prefabricated construction industry. The article includes, among others: description of current solutions using artificial intelligence, genetic algorithms and artificial neural networks in prefabrication of concrete. The concept of artificial intelligence, its origins and scope were characterized, including machine learning, deep learning and neural networks, along with defining their scope of operation. Additionally, the functional structure of the plant was presented, with its division into first- and second-degree subsystems and their detailed description. In the next part, the article refers to the areas of artificial intelligence implementation. For this purpose, the author proposed the possible use of artificial intelligence in the previously indicated scopes of first-level subsystems. The summary of the article covers issues including: further development of artificial intelligence in the production of prefabricated elements for construction, including in the context of the fourth industrial revolution and the potential risks and benefits associated with it.
17
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Przedmiotem artykułu jest oryginalna dwuetapowa metoda oceny wilgotności zabytkowych murów ceglanych z wykorzystaniem uczenia maszynowego. Etap pierwszy obejmuje utworzenie zbioru danych z rezultatów badań doświadczalnych i archiwalnych przeprowadzonych w wytypowanych budynkach zabytkowych. Etap drugi uwzględnia wygenerowanie modelu na podstawie zbioru danych oraz wskazanych algorytmów uczenia maszynowego. Wiarygodność i przydatność praktyczną metody zweryfikowano przykładem jej zastosowania.
EN
The subject of the paper is an original two-stage methodology for assessing the moisture content of historic brick walls using machine learning. The first stage includes the creation of a dataset from the results of experimental and archival research carried out in selected historic buildings. Stage two considers the generation of a model based on the dataset and the indicated machine learning algorithms. The reliability and practical suitability of the methodology was verified by an example of its application.
In mining, where production is affected by several factors, including equipment availability, it is necessary to develop reliable models to accurately predict mine production to improve operational efficiency. Hence, in this study, four (4) machine learning algorithms - namely: artificial neural network (ANN), random forest (RF), gradient boosting regression (GBR) and decision tree (DT)) - were implemented to predict mine production. Multiple Linear Regression (MLR) analysis was used as a baseline study for comparison purposes. In that regard, one hundred and twenty-six (126) datasets from an open-pit gold mine were used. The developed models were evaluated and compared using the correlation coefficient (R2), mean absolute percentage error (MAPE) and variance accounted for (VAF). It has been shown in this study that the ANN model can best estimate open-pit mine production by comparing its performance to that of the other machine learning models. The R2, MAPE, RMSE and VAF of the models were 0.8003, 0.7486, 0.7519, 0.6538, 0.6044, 4.23%, 5.07%, 5.44%, 6.31%, 6.15% and 79.66%, 74.69%, 74.10%, 65.16% and 60.11% for ANN, RF, GBR, DT and MLR, respectively. Overall, this study has shown that machine learning algorithms predict mine production with higher accuracy.
Learning to perform abstract reasoning often requires decomposing the task in question into intermediate subgoals that are not specified upfront, but need to be autonomously devised by the learner. In Raven progressive matrices (RPMs), the task is to choose one of the available answers given a context, where both the context and answers are composite images featuring multiple objects in various spatial arrangements. As this high-level goal is the only guidance available, learning to solve RPMs is challenging. In this study, we propose a deep learning architecture based on the transformer blueprint which, rather than directly making the above choice, addresses the subgoal of predicting the visual properties of individual objects and their arrangements. The multidimensional predictions obtained in this way are then directly juxtaposed to choose the answer. We consider a few ways in which the model parses the visual input into tokens and several regimes of masking parts of the input in self-supervised training. In experimental assessment, the models not only outperform state-of-the-art methods but also provide interesting insights and partial explanations about the inference. The design of the method also makes it immune to biases that are known to be present in some RPM benchmarks.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.