Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 5

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  training algorithms
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Decision trees and decision tree ensembles are popular machine learning methods, used for classification and regression. In this paper, an FPGA implementation of decision trees and tree ensembles for letter and digit recognition in Vivado High-Level Synthesis is presented. Two publicly available datasets were used at both training and testing stages. Different optimizations for tree code and tree node layout in memory are considered. Classification accuracy, throughput and resource usage for different training algorithms, tree depths and ensemble sizes are discussed. The correctness of the module’s operation was verified using C/RTL cosimulation and on a Zynq-7000 SoC device, using Xillybus IP core for data transfer between the processing system and the programmable logic.
PL
W artykule omówiono sporządzanie prognoz wybranymi typami sieci neuronowych z wykorzystaniem różnych algorytmów uczących oraz metodami statystycznymi. Następnie autor przedstawia wyniki prognoz uzyskane dla różnych algorytmów uczących w sieciach neutronowych MLP. We wnioskach końcowych autor podsumowuje skuteczność poszczególnych algorytmów uczących sieć typu MLP a także innych testowanych metod prognostycznych.
EN
It was presented in this paper the preparation of prognoses with selected types of the neural networks with utilization of varied teaching algorithms and with statistical methods. Then, the Author presents the results of prognosis which were obtained tor the varied teaching algorithms in the neural networks type MLP. The Author discusses in the conclusion the efficiency of each teaching algorithms in the neural networks type MLP and others testing methods of forecasting.
3
Content available remote Sieci neuronowe w automatyce
PL
Artykuł omawia podstawowe własności systemów uczących się, w szczególności sieci neuronowych, i podaje przykłady ich zastosowania w automatyce. Na wstępie przedstawia typy uczenia, struktury uczące się i algorytmy uczenia. Następnie opisuje sztuczne sieci neuronowe i ich własności oraz omawia przykładowe zastosowania. W zakończeniu szkicuje perspektywy dalszych zastosowań sieci neuronowych i innych systemów uczących się.
EN
Advantages and disadvantages of various neural architectures are compared. It is shown that neural networks with connections across layers are significantly more powerful than popular MLP - Multi Layer Preceptron architectures. The most powerful are FCC Fully Connected Cascade (FCC) architectures. Unfortunately, most advanced training algorithms were developed only for popular MLP topologies and other much more powerful topologies are seldom used. The newly developed second order algorithm NBN is not only very fast and powerful, but it can train any neural network topologies. With the NBN algorithm it is possible to train close to optimal architectures which were not possible to train before.
PL
W pracy porównano zalety i wady rożnych topologii sieci neuronowych. Pokazano ze sieci neuronowe z połączeniami poprzez warstwy są znacznie bardziej efektywne niż popularne topologie MLP. Najbardziej efektywne są topologie FCC. Niestety większość zaawansowanych algorytmów uczenia zostało zaimplementowanych tylko dla popularnych topologii MLP i inne bardziej efektywne topologie są rzadko używane. Niedawno opracowany drugiego rzędu algorytm jest nie tylko bardzo szybki i efektywny, ale również umożliwia uczenie dowolnych topologii sieci neuronowych. NBN potrafi uczyć zbliżone do optymalnych architektury sieci neuronowych, których nie można było uczyć poprzednio.
5
Content available remote Orthogonalisation Procedure for Training Radial Basis Functions Neural Networks
EN
The concept of using orthogonalisation procedure for training Radial Basis Functions (RBF) neural network is proposed. The algorithm is simpler and numerically more stable than the standard Gram-Schmidt function orthonormalisation procedure (no division by the normalisation term required). The proposed method enables sequential network incrementation, by orthogonalised basis functions, until satisfactory data processing performance is achieved. A simple recurrent scheme for restoration of the original (Le., non-orthogonal) RBF structure is also given. The method outperforms the singular value decomposition (SVD) matrix inversion method routinely used for computation of RBF network weights. The proposed orthogonalisation procedure for RBF network training is benchmarked on two computation problems: function approximation and non-linear system modelling. .
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.