Ten serwis zostanie wyłączony 2025-02-11.
Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl

PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2005 | T. 9, z. 3 | 663-670
Tytuł artykułu

Intuicyjne metody wstępnego kształtowania wag w jednokierunkowych sieciach perceptronowych

Treść / Zawartość
Warianty tytułu
EN
Intuitive methods of initial mould weights for multi layered perceptron
Języki publikacji
PL
Abstrakty
PL
Uczenie sieci perceptronowych jest procesem, na którego prędkość i skuteczność ma wpływ wiele czynników. Optymalizacja dowolnego z parametrów uczenia pozwala na przyspieszenie i zwiększenie skuteczności uczenia. W metodzie wstecznej propagacji błędów jednym z takich parametrów są wartości początkowe wag. W artykule proponujemy graficzny interfejs pozwalający na wstępne ustawienie wag na podstawie doświadczenia i intuicji operatora oraz zasad, które są przydatne przy ustawianiu początkowych wag.
EN
Many factors have influence on speed and effectiveness learning neural networks. The optimization any of that parameters permits on acceleration and the enlargement the effectiveness of learnedly. The initial values of weights in backpropagation method are one of those parameters. In article we propose graphic interface permitting set initial values based on operator intuition and experience. We also propose some rules setting weights which they are useful placing initial values.
Słowa kluczowe
Wydawca

Rocznik
Strony
663-670
Opis fizyczny
Bibliogr. 5 poz., rys., wykr.
Twórcy
  • Wyższa Szkoła Humanistyczno-Ekonomiczna, Łódź
autor
  • Wyższa Szkoła Humanistyczno-Ekonomiczna, Łódź
Bibliografia
  • [1] Tadeusiewicz R.: Sieci neuronowe. Warszawa, Akademicka Oficyna Wydaw. RM 1993
  • [2] Cybenko G.: Approximation by Superpositions of a Sigmoidal Function. Mathematics of Control Signals, and Systems, vol. 2, 1989, 303-314
  • [3] Rutkowska D., Piliński M., Rutkowski L.: Sieci neuronowe, algorytmy genetyczne i systemy rozmyte. Warszawa, Wydawnictwo Naukowe PWN 1997
  • [4] Rumelhart D., Hinton G., Williams R.: Learning Internal Representations by Error Propagation. Parallel Distributed Processing, vol. 1, 1986, 318-362
  • [5] Hornik K., Stinchcombe M., White H.: Multilayer feedforward networks are universal approximators. Neural Networks, 2, 1989, 359-366
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.baztech-article-AGH1-0006-0038
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.