Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Tuning parameters of the simple forecasting models
EN
Tuning parameters of two simple forecasting models is considered: the exponential smoothing model and the Holt model. For the first one a formula is derived which might be used instead of widely applied searching method. For the second, the object function for opimisation procedure is suggested. This object function is not based only on an error in the past but it also includes a penalty term for an excessive change of the forecasted variable. An illustrative example is attached.
PL
W artykule przedstawiono metody wyznaczania parametrów dla dwóch prostych modeli prognostycznych: modelu wygładzania wykładniczego i modelu Holta. Dla pierwszego z nich zamiast metody poszukiwawczej proponowany jest prosty wzór. Dla drugiego formułowana jest funkcja celu dla procedury optymalizacyjnej. Ta funkcja celu obejmuje nie tylko błąd obliczony dla danych z przeszłości, lecz również zawiera składnik kary za zmiany zmiennej prognozowanej. Dołączony jest przykład ilustrujący.
2
Content available remote Approximately static relationship between model variables
EN
We define approximately static relationship between model variables, show some its properties and demonstrate usefulness of this concept in neural modeling,
PL
Zdefiniowano pojęcie przybliżone] statycznej zależności pomiędzy zmiennymi modelu, oraz pokazano jej pewne własności i przydatność zastosowania tego pojęcia do modelowania neuronowego.
PL
Omówiono ograniczenia narzucane przez architekturę neuronową z kaskadą opóźnień stosowaną do estymacji prędkości kątowej silnika indukcyjnego przy dostępności sygnałów prądów i napięć stojana. Wykazano potrzebę stosowania przetwarzania wstępnego sygnałów i sformułowano zadania dla takiego przetwarzania. Artykuł stanowi kanwę teoretyczną dla opisu praktycznej realizacji napędu prądu przemiennego z neuronowym estymatorem prędkości i przetwarzaniem wstępnym [4].
EN
In this paper limits of performance of tapped delay neural architecture used for induction motor speed estimation are presented. It is demonstrated that there is a need for preprocessing of signals inputting the neural architecture. Goals for such preprocessing are formulated. The paper grants some theoretical basis for another paper [4] describing implementation of sensorless drive with neural speed estimator and input preprocessing.
PL
Omówiono zaprojektowany, zasymulowany i laboratoryjnie sprawdzony bezczujnikowy napęd prądu przemiennego z neuronowym estymatorem prędkości kątowej. Przedstawiono nowe podejście do estymacji prędkości kątowej silnika klatkowego. Zaprezentowano estymator neuronowy wykorzystujący odpowiednio przetworzone sygnały prądu i napięcia stojana zgodnie z regułami przedstawionymi w pracy [13]. Przetworzone sygnały wejściowe oraz sygnał estymowany charakteryzują się zbliżonymi widmami. Brak kaskady opóźnień sygnałów w estymatorze i brak sprzężeń rekurencyjnych umożliwiają pracę z częstotliwością różną od częstotliwości zbierania danych uczących. Układ napędowy sterowany metodą orientacji wektora pola został wykorzystany do testowania zaproponowanego neuronowego estymatora prędkości kątowej.
EN
In this paper we describe a sensorless AC drive: designed, simulated and laboratory tested. A novel approach to neural network based speed estimation for AC drive is presented. Proposed neural estimator uses preprocessing of inputs signals. Frequency spectra of preprocessed and estimated signals are similar. Lack of tapped delays and recurrent feedbacks allow easy change of sampling time after learning. Electrical drive with FOC control system has been used for testing of the proposed neural speed estimator.
5
Content available remote Przyrostowa aproksymacja funkcji z ortonormalizacją bazy
PL
Prezentowana aproksymacja przyrostowa funkcji bazuje na architekturze sieci neuronowej z jedną warstwą ukrytą. W każdym kroku aproksymacji do warstwy tej dodawany jest tylko jeden neuron i jego parametry są optymalizowane. W trakcie procesu aproksymacji wykorzystuje się dwie bazy tej samej przestrzeni aproksymującej: bazę implementacyjną i pomocniczą bazę ortonormalną. Błąd aproksymacji sieci, jako funkcja liczby neuronów w warstwie ukrytej, maleje monotonicznie przy spełnieniu bardzo słabych warunków na parametry nowo dodawanych neuronów. Nie istnieje więc problem minimów lokalnych. Wagi w warstwie wyjściowej wyznacza się tylko raz, po zakończeniu doboru neuronów w warstwie ukrytej.Prezentowana aproksymacja przyrostowa funkcji bazuje na architekturze sieci neuronowej z jedną warstwą ukrytą. W każdym kroku aproksymacji do warstwy tej dodawany jest tylko jeden neuron i jego parametry są optymalizowane. W trakcie procesu aproksymacji wykorzystuje się dwie bazy tej samej przestrzeni aproksymującej: bazę implementacyjną i pomocniczą bazę ortonormalną. Błąd aproksymacji sieci, jako funkcja liczby neuronów w warstwie ukrytej, maleje monotonicznie przy spełnieniu bardzo słabych warunków na parametry nowo dodawanych neuronów. Nie istnieje więc problem minimów lokalnych. Wagi w warstwie wyjściowej wyznacza się tylko raz, po zakończeniu doboru neuronów w warstwie ukrytej.
EN
In this paper incremental function approximation based on one-hidden layer neural architecture is presented. In each incremental step only one neuron is added into hidden layer and its parameters are optimised. Two bases of approximation space are determined and maintained during approximation process. The first one is used for neural network implementation, the second - orthonormal one, is treated as an intermediate step of calculations. Approximation error versus number of neurons in hidden layer monotonically decreases, so there is no problem of local minima. Only after terminating all iterations the output weights are calculated (once).
PL
W niniejszej pracy scharakteryzowana jest aproksymacja przyrostowa funkcji realizowana za pomocą sieci neuronowych z jedną warstwą ukrytą. Liczba neuronów w warstwie ukrytej jest dobierana dynamicznie w trakcie procesu aproksymacji. W każdej iteracji wyznacza się parametry tylko jednego neuronu. Warstwa wyjściowa jest liniowa, w której jest wyznaczany najlepszy aproksymator przez rzutowanie ortogonalne. Funkcje aproksymowane pochodzą z przestrzeni Hilberta. W trakcie procesu aproksymacji wyznaczane i przechowywane są dwie bazy: baza dla implementacji i rozpinająca tę samą przestrzeń pomocnicza baza ortonormalna. Rozważa się zagadnienia adaptacyjnego wyboru bazy, funkcjonałów celu w aproksymacji przyrostowej, funkcji wygładzających, uzależnienia szybkości aproksymacji i wag w warstwie wyjściowej, uporządkowania bazy w aproksymacji przyrostowej, aproksymacji pola wektorowego i regularyzacji w sieciach przyrostowych. W pracy określono warunki zmniejszania błędu w każdej iteracji, warunek najszybszego spadku błędu w każdej iteracji, zdefiniowano funkcję dokładności aproksymacji i wykazano, że jej norma dla kolejnych funkcji bazowych wpływa zasadniczo na wartości wag warstwy wyściowej, szybkość aproksymacji i gładkość (nieoscylacyjność) otrzymywanych rozwiązań. Zaproponowano sposób kontrolowania tej wielkości. Rozważania mają charakter konstruktywny i prowadzą do konkretnych efektywnych algorytmów aproksymacji. Praca zawiera przykłady zastosowań.
EN
In this thesis incremental function approximation by one-hidden-layer neural networks is characterized. During approximation process, number of neurons in hidden layer is dynamically selected. In each iteration oniy one neuron parameters are tuned. Output layer is linear and determines the best approximation via orthogonal projection transformation. Approximation is provided in Hilbert space. During approximation process two space basis are determined: a basis for implementation and an assisted orthonormal basis which spans the same space. The following topics are considered: adaptive selection of basis functions, target functionals, smoothing functions, relation between rate of approximation and weights value in the output layer, ordering of basis, vector field approximation and regularization in the incremental approximation. We formulated conditions for decreasing of error in every iteration and conditions for fastest error decrease. There was defined a function of accuracy and proved that its norm for subsequent basis functions largely influence the output weights, rate of approximation and smoothness (nonoscilatory) of obtained solutions. A way of controlling its value was suggested. Our considerations are constructive and end with efficient approximation algorithms. Examples of applications are included.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.