Ograniczanie wyników
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 1

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  stepwise selection
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W pracy przedstawiono metody optymalizacji liczby zmiennych wejściowych sieci neuronowej na podstawie wyników badania tarcia metodą przeciągania pasa blachy ze zginaniem, która służy do modelowania zjawiska tarcia na progu ciągowym podczas wytłaczania blach. Badaniom poddano po trzy gatunki blach mosiężnych, stalowych oraz ze stopu aluminium. Optymalizację liczby zmiennych wejściowych dokonano za pomocą metod selekcji krokowej wstecznej oraz postępującej a także za pomocą algorytmów genetycznych. Na podstawie określonej w każdej z zastosowanych technik optymalizacyjnych liczby zmiennych zbudowano modele regresyjne sieci wielowarstwowej. W zakresie wprowadzanych wartości kary jednostkowej dla każdego z testowanych algorytmów zaobserwowano lokalne minimum wartości błędu sieci dla zbioru uczącego. Wysoką wartość błędu sieci przy dużej liczbie zmiennych można wytłumaczyć szumem wprowadzanym przez zmienne, które mogą być w pewnych zakresach ich wartości ze sobą skorelowane. Wysoka wartość miernika korelacji przy niskiej wartości S. D. Ratio dla zbioru uczącego świadczy o dobrych własnościach aproksymacyjnych zbudowanych sieci neuronowych.
EN
The paper presents a method to optimize the number of input variables of the neural network on the basis of the results of draw bead simulator test. This test is used to model the friction phenomenon on the draw bead in sheet metal forming. The study involved three kinds of brass, steel and aluminum alloy sheets. Optimization of the number of input variables was performed using three methods: backward stepwise selection, forward stepwise selection and genetic algorithms. On the basis of each number of input variables determined using optimization techniques the multilayer regression models of multilayer networks were built. In the range of unit penalty value input for all tested algorithms the local minima of network error for training set were observed. The high network error value including the big number of variables can be explained by noise caused by the variables which can be correlated in the certain ranges of their values. The high value of correlation coefficient at low value of S.D. ratio for training set denote the good approximate properties of built neural networks.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.