This article examines different control algorithms for passenger trains to reduce fuel consumption. Control algorithms are based on the use of train freewheeling to minimize friction braking and account for the average speed requirements of the traffic schedule. The authors identified the dependencies of the efficiency of the algorithms on the gradients and curves of the track and investigated the patterns of these dependencies. It was determined under which track profile parameters the algorithm is maximally effective. Conclusions are presented on which track profiles the control algorithm saves the most fuel.
Celem artykułu było określenie właściwości algorytmu hipergeometrycznego podziału cząstki danych pod kątem skuteczności oraz czasu realizacji procesu klasyfikacji. W eksperymentach wykorzystano znormalizowany, trójwymiarowy zbiór danych opisujący trzy atrybuty impulsów sygnałów radarowych pochodzących z trzech emiterów różnego typu. Dla opisywanej, trójwymiarowej przestrzeni cech, dokonana została metoda walidacji krzyżowej w wariancie sprawdzenia prostego, pozwalająca na utworzenie dwóch podzbiorów wykorzystywanych przy klasyfikacji: zbioru treningowego oraz zbioru testowego. Przeprowadzone badania wykazały istotny wpływ poziomu głębokości podziału d na skuteczność klasyfikacji oraz czas jej realizacji, co zostało przedstawione w postaci danych tabelarycznych oraz zobrazowań ukazujących rezultaty eksperymentów. Otrzymane wyniki wykazały, że algorytm hipergeometrycznego podziału cząstki danych jest w stanie ze skutecznością na poziomie 97% klasyfikować impulsy pochodzące z trzech źródeł emisji radarowej, co potwierdza zasadność jego wykorzystania w aspekcie przetwarzania danych wywiadu elektronicznego.
EN
The purpose of this paper was to determine the properties of the hypergeometric data particle partitioning algorithm in terms of efficiency and execution time of the classification process. The experiments used a normalized threedimensional dataset describing three attributes of radar signal pulses coming from three emitters of different types. For the described three-dimensional feature space, a cross-validation method of the simple check variant was performed, allowing the creation of two subsets used for classification: a training set and a test set. The conducted research showed a significant influence of the level of subdivision depth d on the effectiveness of classification and its execution time, which was presented in the form of tabular data and images showing the results of experiments. The results obtained showed that the hypergeometric data particle partitioning algorithm can classify pulses from three radar emission sources with 97% efficiency, which confirms the validity of its use in the aspect of electronic intelligence processing.
Wzrastające ceny energii elektrycznej powodują, że wciąż poszukiwane są rozwiązania pozwalające na oszczędności związane z energią elektryczną. Jedną z możliwości jest wdrożenie właściwego systemu zarządzania energią i przeprowadzenie optymalnego procesu decyzyjnego. W referacie przedstawiono autorski algorytm i sposób przeprowedzania procesu decyzyjnego dla dużego odbiorcy energii elektrycznej.
EN
Increasing electricity prices lead to a continuous search for solutions that enable savings related to electricity consumption. One of the possibilities is the implementation of an appropriate energy management system and conducting an optimal decision-making process. The paper presents an original algorithm and the approach to conducting the decision-making process for a large electricity consumer.
The article presents research on the implementation and testing of three different algorithms used for fall detection. Two of the algorithms use a time-based waveform analysis and monitoring of fixed values of acceleration and angular velocity. The most effective algorithm is also based on the acceleration value but the fall decision is made by a classifier using SVM. This makes it possible to achieve an algorithm efficiency of 97%.
PL
Artykuł przedstawia badania nad implementacją i testowaniem trzech różnych algorytmów wykorzystywanych do wykrywania upadków. Dwa pierwsze algorytmy wykorzystują analizę przebiegów czasowych i monitorowanie stałych wartości przyspieszenia i prędkości kątowej. Najskuteczniejszy algorytm jest również oparty na wartości przyspieszenia, ale decyzja o upadku jest podejmowana przez klasyfikator wykorzystujący SVM. Dzięki temu możliwe jest uzyskanie skuteczności algorytmu na poziomie 97%.
Sztuczna inteligencja (ang. artificial intelligence, AI) to najgorętszy temat ostatnich lat, nie tylko w technologii. Jest wszędzie - od szczoteczek do zębów po artykuły naukowe. Pochłania setki miliardów dolarów, trzęsie giełdami, podważa wiarę w prawdziwość cyfrowych treści, halucynuje i karmi apokaliptyczne przepowiednie. Czym naprawdę jest AI? Czy zamiast Artificial Intelligence powinniśmy mówić o Alien Intelligence, jak sugeruje Yuval Noah Harari, czy raczej oczekiwać połączenia inteligencji białkowej z krzemową przez interfejsy mózg-komputer, razem z Raymondem Kurzweilem? Dlaczego wykorzystująca zdobycze nauki cywilizacja skręca nagle w stronę czarnych skrzynek i tajemniczych wyroczni? Spróbujemy określić, czym jest AI, i wyjaśnimy czym nie jest, demaskując po drodze kilka miejskich legend o podsłuchiwaniu myśli i przenoszeniu świadomości do cyberprzestrzeni. Omówimy też realne zagrożenia wynikające z faktu, że od od lat oddajemy algorytmom rząd dusz, ale nie zauważamy tego wsłuchani w opowieści o nadchodzącej „apokalipsie AI”.
EN
Artificial Intelligence (AI) is the hottest topic of recent years, and not only in technology. It is everywhere - from toothbrushes to scientific articles. It consumes hundreds of billions of dollars, shakes stock markets, undermines the credibility of digital content, hallucinates and feeds apocalyptic prophecies. What is AI really? Should we understand Artificial Intelligence as Alien Intelligence, as Yuval Noah Harari suggests, or rather expect biological intelligence to merge with silicon intelligence via brain-computer interfaces, together with Raymond Kurzweil? Why does our science-based civilization suddenly turn towards black boxes and mysterious oracles? We will try to define what AI is and explain what it is not, along the way debunking a few urban legends about eavesdropping on thoughts and transferring consciousness to cyberspace. We will also discuss the real threats resulting from the fact that for years we have been giving the reign of our souls to algorithms, but we do not notice it, listening to stories about the coming “AI apocalypse”.
In this paper we present two algorithms for computing discrete logarithms. We also introduce theorems that facilitate computing discrete logarithms and show how we break the Diffie-Hellman protocol, which is considered to be very secure.
PL
W pracy przedstawiono dwa algorytmy do obliczania logarytmów dyskretnych. Zaprezentowano również twierdzenia, które ułatwiają obliczanie logarytmów dyskretnych i pokazano, jak jest łamany protokół Diffiego-Hellmana, uważany za bardzo bezpieczny.
A cutting-edge construction method called fitted construction allows for several parallel lines of work to speed up construction and enhance building quality. However, achieving optimal project decisions for global construction projects demands a high level of objective decision-making. To enhance the decision-making process, this research utilizes particle swarm algorithms to optimize construction project decisions in assembled buildings. To tackle the issue of early convergence in particle swarm algorithms, three swarm enhanced particle swarm algorithms are proposed by merging the variational mechanism of the differential evolution algorithm and quantifying the decision making tasks for assembly building construction projects to be solved by the enhanced particle swarm algorithm. Regarding the research results, the upgraded particle swarm algorithm achieved a fundamental convergence in 20 iterations whilst resolving the Sphere, Rosebrock, Rastrigin, and Griewank functions. The improved particle swarm algorithm converges to an optimal solution of -19.208 within 20 iterations on the Holder function, with an optimal domain of [8.055, -9.665]. The results of the optimization study for the decision-making problem of the assembly building project demonstrate that implementing Sigmoid smoothing yields a minimum duration problem of 0.755 and a minimum duration of 45 days. The optimal cost and time required to solve the problem of economic maximisation strategy using the enhanced particle swarm method are 500,000 and 52 days, respectively. The results indicate that the improved particle swarm approach outperforms conventional algorithms in the decision-making process for assembly building projects, maintaining computational accuracy throughout.
Artykuł prezentuje metody optymalizacji topologii z udziałem sztucznych sieci neuronowych wraz z implementacjami o otwartym kodzie. Algorytmy te skupiają się głównie na optymalizacji konstrukcji, jednak podjęto także próby optymalizacji przewodnictwa cieplnego oraz interakcji płyn-konstrukcja. W pracy przedstawiono porównanie istotnych cech algorytmów oraz podsumowano wyniki przeprowadzonych eksperymentów z ich użyciem. Ponadto nakreślono perspektywy i ograniczenia przy stosowaniu sztucznych sieci neuronowych do zagadnienia optymalizacji.
EN
The article presents methods of topology optimization using artificial neural networks with their open-source implementations. The algorithms are focused mainly on structural optimization, though some attempts of heat transfer and fluid-structure interaction optimizing were made. The paper presents a comparison of essential features of the algorithms and sums up conducted experiments results. Furthermore, perspectives and limitations of using artificial neural networks for optimization task were outlined.
The natural way to reduce the duration of measurement of a levelling network is to cut down on the number of levelling lines without damaging the quality of the final results. The main objective of the study is to demonstrate that this is possible without any lack of accuracy, if some mathematical facts regarding the average of both measurements of the line elevations are taken into account. Based on 60 paired random samples of size 1000, derived from different continuous distributions, e.g., N (0, 1), U (-1.732, 1.732) and Gamma (1, 1), each of them with theoretical standard deviation σ=1, it was found that the averages of each pair form new distribution with standard deviation σ≈0.707. However, the samples, which were formed by selecting the nearest to the known theoretical expectation from both measurements and their average have distributions, which standard deviations tend to σ≈0.53, σ≈0.46 and σ≈0.43 for the U (-1.732, 1.732), N (0, 1) and Gamma (1, 1) distributions, respectively. Therefore, if we choose the more appropriate value from the “first”, the “second” measurement and their average, we will increase the accuracy of the network almost √2 times in comparison to the accuracy, yielded by the only use of the averages. If our network contains n lines, the process of finding of these elevation values, which leads to the best fit of the network, is based on 3n single adjustments of the network. In addition, we can minimize the impact of the shape of the network on the final standard errors of the adjusted heights or geopotential numbers of the nodal benchmarks in the network, if we apply some iterative procedures, e.g., Inverse Distance Weighting (IDW), Inverse Absolute Height Weighting (IAHW), etc. In order to check the above explained algorithm, the Second Levelling of Finland network was adjusted in three variants. In the first variant, the whole network was adjusted as a free one. The classical weights w=L-1 were used. In the second variant, the network was separated into two parts. Applying 312 and 314 independent adjustments, the selection of the best fitted values of line elevations was done and the network was adjusted by using them. The IDW and IAHW with power parameter p=5 were finally applied. In the third variant, the network was separated in four parts. Applying 313, 312, 316 and 312 independent adjustments, the new selection of the line elevations was done and the network was adjusted by them. The IDW (p=6.5) and IAHW (p=6) were executed. Comparison of the standard errors of the adjusted geopotential numbers in the separate variants revealed that there was no statistically significant difference between the results, yielded in the second and the third variant. However, these variants produced 3-5 times increase of the accuracy in comparison to the classical first variant. The best results were obtained in the second variant with IAHW, where the mean value of the standard errors of the adjusted geopotential numbers is below 1.4 mgpu.
11
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Uczenie maszynowe jest metodą analizy danych, polegającą na automatyzacji modeli analitycznych, dzięki któremu możliwe jest uzyskanie dokładniejszych wyników. Wyróżnia się cztery rodzaje algorytmów - nadzorowane, półnadzorowane, nienadzorowane oraz wzmocnione, do których zalicza się między innymi algorytm k-najbliższych sąsiadów (K-Nearest Neighbors - KNN) oraz algorytm k-średnich (K-Means). Pierwszy z nich jest nieparametryczny, nadzorowanym klasyfikatorem uczenia się, natomiast drugi zaliczany jest do uczenia maszynowego bez nadzoru. Algorytm k-najbliższych sąsiadów używany jest w przypadku klasyfikacji oraz regresji, podczas gdy algorytm k-średnich stosowany jest w zadaniach grupowych. Oba algorytmy, dzięki wielu zaletom znajdują szerokie zastosowanie w różnorodnych dziedzinach.
EN
Machine learning is a method of data analysis that involves automating analytical models to produce more accurate results. There are four types of algorithms - supervised, semi-supervised, unsupervised and enhanced, which include the K-Nearest Neighbors (KNN) algorithm and the k-means (K-Means) algorithm. The former is a non-parametric supervised learning classifier, while the latter is classified as unsupervised machine learning. The k-nearest neighbor algorithm is used for classification and regression, while the k-means algorithm is used for clustering tasks. Both algorithms, thanks to their many advantages, are widely used in a variety of fields.
In the article, the problem of detecting a suspicious object in the control by unmanned air vehicle (UAV) and tracking it by reaching and changing its direction in the shortest period of time is explored. To solve this optimal control problem, it is considered that the flight of UAV is described with simple motion equations. In the beginning, known quantities are current coordinates and speed of UAV, equation of motion of detected suspicious object.
This research paper deals with the problem of rhyme generation. The project concerns words in the Polish language. Two methods have been proposed to determine whether two words rhyme. A proprietary algorithm was created and three types of neural networks were trained. The efficiency of the methods and the way each of the discussed methods works was compared.
Maszyna Turinga jest opracowanym przez Alana Turinga ideowym modelem programowania. Ten abstrakcyjny model urządzenia służył do zapisu i wykonania algorytmów. Niniejszy artykuł opisuje budowę i sposób działania maszyny Turinga oraz zasady zapisu algorytmów w postaci tabeli przejść. W artykule umieszczono przykład użycia symulatora maszyny Turinga do rozwiązania przykładowego zadania. Analiza zamieszczonego przykładu, pozwoli odbiorcy, na przyswojenie sposobu szukania rozwiązania problemu, dla ideowego modelu komputera, jakim jest maszyna Turinga.
The subject of the research is modeling and analysisof the characteristics of multichannel and multi-node computer networks with priority services. The work is devoted to the study of the qualitative indicators of the functioning of computer networks with priority service.In this work, mathematical modelsare developed that make it possible to assess the quality of functioning of modern computer networks, taking into account thenumber of channels, waiting places in network nodes and the number of network nodes. The proposed methods for calculating the probability of failures andthe probability of timely delivery of a stream of requests make it possible to determine the real values of the qualitative indicators of the functioningof computer networks and are suitable for both designed and operating computer networks. The proposed technique makes it possible to determinethe number of packets in the queue and the optimal amount of buffer memory in computer network nodes.
PL
Przedmiotem badań jest modelowanie i analiza charakterystyk wielokanałowych i wielowęzłowych sieci komputerowych z usługami priorytetowymi. Praca poświęcona jest badaniu jakościowych wskaźników funkcjonowania sieci komputerowych z usługami priorytetowymi. W pracy opracowano modele matematyczne umożliwiające ocenę jakości funkcjonowania nowoczesnych sieci komputerowych z uwzględnieniem liczby kanałów, miejsc oczekiwania w węzłach sieci oraz liczby węzłów sieci. Proponowane metody obliczania prawdopodobieństwa awarii i prawdopodobieństwa terminowego dostarczenia strumienia żądań umożliwiają określenie rzeczywistych wartości wskaźników jakościowych funkcjonowania sieci komputerowych i są odpowiednie zarówno dla projektowanych, jak i działających sieci komputerowych. Proponowana technika umożliwia określenie liczby pakietów w kolejce i optymalnej ilości pamięci buforowej w węzłach sieci komputerowej.
In this paper three algorithms of motion planning for two-input, one-chained nonholonomic systems are presented. The classical Murray-Sastry algorithm is compared with two original algorithms aimed at optimizing energy of controls. Based on the generalized Campbell- Baker-Hausdorff-Dynkin formula applied to the systems, some observations are made concerning the optimal relationship between amplitudes and phases of harmonic controls. The observations help to optimize a selection of controls and to design new algorithms for planning a sub- optimal trajectory between given boundary configurations. It was also shown that for those particular systems the generalized C-B-H-D formula is valid not only locally (as in a typical case) but also globally. Simulations performed on the five-dimensional chain system facilitate distinguishing the proposed algorithms from the Murray-Sastry algorithm and to illustrate their features. Systems in a chained form are important from a practical point of view as they are canonical for a class of systems transformable into this form. The most prominent among them are mobile robots with or without trailers.
17
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
In this paper we describe polynomial time algorithms for minimizing a separable convex function of the resource usage over time of a set of jobs with individual release dates and deadlines, and admitting a common processing time.
18
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Principal component analysis (PCA) based on L1-norm has drawn growing interest in recent years. It is especially popular in the machine learning and pattern recognition communities for its robustness to outliers. Although optimal algorithms for L1-norm maximization exist, they have very high computational complexity and can be used for evaluation purposes only. In practice, only approximate techniques have been considered so far. Currently, the most popular method is the bit-flipping technique, where the L1-norm maximization is viewed as a combinatorial problem over the binary field. Recently, we proposed exhaustive, but faster algorithm based on two-dimensional Jacobi rotations that also offer high accuracy. In this paper, we develop a novel variant of this method that uses three-dimensional rotations and quaternion algebra. Our experiments show that the proposed approach offers higher accuracy than other approximate algorithms, but at the expense of the additional computational cost. However, for large datasets, the cost is still lower than that of the bit-flipping technique.
19
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
We discuss an algorithm for generating all permutations of numbers between 1 and N. The algorithm is short and efficient, yet its behavior is not obvious from the code, mostly owing to the recursion. The discussion touches upon a few interesting methodological issues and brings in an educational case study in recursion.
Zwiększone zapotrzebowanie na energię elektryczną spowodowane przewidywaną popularyzacją pojazdów elektrycznych może zagrozić bezpiecznej i ekonomicznej pracy sieci elektroenergetycznej. Z tego względu niezbędne są odpowiednie strategie ładowania pojazdów. Skoordynowane systemy ładowania pojazdów mogą być realizowane jako systemy scentralizowane, zdecentralizowane i hierarchiczne. W artykule skupiono się na celach i ograniczeniach dotyczących projektowania algorytmów sterowania ładowaniem.
EN
The increased demand for electricity due to the anticipated popularisation of electric vehicles (EVs) may threaten the safe and economic operation of the electrical grid. Therefore, appropriate EV charging strategies will be necessary. Coordinated EV charging systems might be implemented as centralized, decentralized and hierarchical systems. This paper focuses on the objectives and constraints for the design of charging control algorithms.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.