Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 3

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  wsteczna propagacja błędu
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
In this paper the Sigma-if artificial neural network model is considered, which is a generalization of an MLP network with sigmoidal neurons. It was found to be a potentially universal tool for automatic creation of distributed classification and selective attention systems. To overcome the high nonlinearity of the aggregation function of Sigma-if neurons, the training process of the Sigma-if network combines an error backpropagation algorithm with the self-consistency paradigm widely used in physics. But for the same reason, the classical backpropagation delta rule for the MLP network cannot be used. The general equation for the backpropagation generalized delta rule for the Sigma-if neural network is derived and a selection of experimental results that confirm its usefulness are presented.
PL
W artykule przedstawiono wyniki eksperymentów procesu uczenia sieci neuronowej ze wsteczną propagacją błędu, wykorzystywanej w procesie rozpoznawania ręcznie pisanych cyfr. Opisano kilka niestandardowych technik, takich jak: korekcja nachylenia cyfr oraz dwa warianty uczenia sekwencyjnego sieci neuronowej, bazujących na pewności rozpoznania cyfr przez sieć oraz statystyce pomyłek klasyfikacyjnych sieci.
EN
This article presents the results of experiments carried out before and during the learning process of artificial neural network (backpropagation), used for handwritten digits recognition. Some unconventional techniques are described, such as an algorithm of slant correction and two variants of sequential learning, basing on the recognition reliability of the specific digit and statistical confusion matrix.
PL
Tworzenie struktury oraz późniejsze uczenie jednokierunkowych sieci neuronowych są procesami zależnymi od wielu czynników. Dobór wielu z nich ma charakter szacunkowy i doświadczalny. Proponowana w niniejszym opracowaniu metoda pozwala na osłabienie wpływu nieoptymalnego wyboru struktury sieci oraz zmniejsza wpływ doboru prędkości i pędu uczenia w klasycznej metodzie wstecznej propagacji błędu.
EN
Creating and later learning of one-way neural networks depends from many factors. Selection of many them has estimated and experimental character. The proposed in the article method allows to the weakness of the influence of the not optimal choice of the net structure, also speed and momentum values are less influential then in classic Back Propagation Method.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.