Powiadomienia systemowe
- Sesja wygasła!
Tytuł artykułu
Identyfikatory
Warianty tytułu
Uczenie neuronów dwuprogowych
Języki publikacji
Abstrakty
Artificial neural networks on the base of neural-like computational units have many applications and are intensively used for solving numerous important practical tasks. It is common that the threshold unit is incapable solving many rather easy recognition tasks. The using of neurons with more complicated activation functions allowed surmounting this constrain. Although there were multi-threshold neural units designs, the efficient learning techniques for multi-threshold neuron based neural networks weren't developed. The paper presents the study of simplest case of multi-threshold units, namely bithreshold neurons.
Sztuczne sieci neuronowe jako podstawa neuronopodobnych jednostek obliczeniowych mają wiele zastosowań i są intensywnie wykorzystywane do rozwiązywania wielu ważnych zadań praktycznych. Oczywiste jest, że jednostka wykorzystująca progowanie nie jest w stanie rozwiązać wielu, raczej łatwych zadań rozpoznawania. Za pomocą neuronów z bardziej komplikowanymi funkcjami aktywacji możliwie staje się przezwyciężenie tego ograniczenia. Pomimo faktu, że opracowano neurony wielo-progowe, to brak było skutecznych technik ich uczenia. W artykule przedstawiono badania najprostszego przypadku multi-progowych jednostek, a mianowicie neuronów dwuprogowych.
Wydawca
Rocznik
Tom
Strony
70--72
Opis fizyczny
Bibliogr. 12 poz.
Twórcy
autor
- Uzhgorod National University
autor
- Uzhgorod National University
autor
- Lviv National Polytechnic University
autor
- Uzhgorod National University
autor
- Lublin University of Technology, Poland
Bibliografia
- [1] Haykin S., Neural Networks. A Comprehensive Foundation, Upper Saddle River, NJ: Prentice Hall, Inc., 1999.
- [2] Rosenblatt F., Principles of Neurodynamics, Washington, DC: Spartan Books, 1962.
- [3] Novikoff A., On convergence proof for perceptrons, Proceeding of Symposium on Mathematical Theory of Automata. Polytechnic Institute of Brooklyn, vol. XII, 1963, 615-622.
- [4] Minsky M. L., Papert S. A., Perceptrons, expanded editions, MIT Press, 1988.
- [5] Peled U., Simeone B., Polynomial-time algorithm for regular set covering and threshold synthesis, Discrete Applied Mathematics, vol. 12, 1985, 57-69.
- [6] Baharyev A. T., Optimization of multithreshold models, Problemy sluchaiynogo poiska, vol. 4, 1975, 209-214 (in Russian).
- [7] Rivest R., Learning decision lists, Machine Learning, vol. 2, 1987, 229-246.
- [8] Anthony M., Discrete Mathematics of Neural Networks, Philadelphia: SIAM, 2001.
- [9] Marchand M., M. Golea., On learning simple neural concepts: From halfspace intersection to neural decision lists, Networks: Computation in Neural Systems, vol. 4, 1993, 67-85.
- [10] Geche F., Batyuk A., Kotsovsky W., The properties of Boolean functions realizable on bithreshold neurons, Visnyk nacionalnogo universytetu «Lvivska politehnika» "Kompyuterna inzheneriya ta informaciyni tehnologii", vol. 438, 2001, 22-25 (in Ukrainian).
- [11] Blum A., Rivest R., Training a 3-Node Neural Network is NP-Complete, Neural Networks, vol. 5 (1), 1992, 117-127.
- [12] Garey M. R., Johnson D. S., Computers and Intractability, New York: W.H. Freeman, 1979.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-8583d0d4-4c43-43e6-9856-23ce084cff08