Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!

Znaleziono wyników: 21

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  aproksymacja funkcji
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
EN
Artificial neural networks are essential intelligent tools for various learning tasks. Training them is challenging due to the nature of the data set, many training weights, and their dependency, which gives rise to a complicated high-dimensional error function for minimization. Thus, global optimization methods have become an alternative approach. Many variants of differential evolution (DE) have been applied as training methods to approximate the weights of a neural network. However, empirical studies show that they suffer from generally fixed weight bounds. In this research, we propose an enhanced differential evolution algorithm with adaptive weight bound adjustment (DEAW) for the efficient training of neural networks. The DEAW algorithm uses small initial weight bounds and adaptive adjustment in the mutation process. It gradually extends the bounds when a component of a mutant vector reaches its limits. We also experiment with using several scales of an activation function with the DEAW algorithm. Then, we apply the proposed method with its suitable setting to solve function approximation problems. DEAW can achieve satisfactory results compared to exact solutions.
PL
Sztuczne sieci neuronowe są niezbędnymi inteligentnymi narzędziami do realizacji różnych zadań uczenia się. Ich szkolenie stanowi wyzwanie ze względu na charakter zbioru danych, wiele wag treningowych i ich zależności, co powoduje powstanie skomplikowanej, wielowymiarowej funkcji błędu do minimalizacji. Dlatego alternatywnym podejściem stały się metody optymalizacji globalnej. Wiele wariantów ewolucji różnicowej (DE) zostało zastosowanych jako metody treningowe do aproksymacji wag sieci neuronowej. Jednak badania empiryczne pokazują, że cierpią one z powodu ogólnie ustalonych granic wag. W tym badaniu proponujemy ulepszony algorytm ewolucji różnicowej z adaptacyjnym dopasowaniem granic wag (DEAW) dla efektywnego szkolenia sieci neuronowych. Algorytm DEAW wykorzystuje małe początkowe granice wag i adaptacyjne dostosowanie w procesie mutacji. Stopniowo rozszerza on granice, gdy składowa wektora mutacji osiąga swoje granice. Eksperymentujemy również z wykorzystaniem kilku skal funkcji aktywacji z algorytmem DEAW. Następnie, stosujemy proponowaną metodę z jej odpowiednim ustawieniem do rozwiązywania problemów aproksymacji funkcji. DEAW może osiągnąć zadowalające rezultaty w porównaniu z rozwiązaniami dokładnymi.
EN
Two ways of approximation of the BEM kernel singularity are presented in this paper. Based on these approximations extensive error analysis was carried on. As a criterion the preciseness and simplicity of approximation were selected. Simplicity because such approach would be applied for the tomography problems, so time of execution plays particularly significant role. One of the approximations which could be applied for the wide range of the arguments of the kernel were selected.
PL
Dwie metody aproksymacji osobliwości funkcji Greena zaproponowano w tej pracy. Bazując na tych aproksymacjach dokonano wnikliwej analizy błędów. Jako kryterium wybrano dokładność i prostotę zaproponowanych aproksymacji. Prostotę dlatego, że takie podejście będzie proponowane w zagadnieniach tomograficznych. Tak więc czas odgrywa zasadniczą rolę. Wybrano aproksymację, która może być stosowana dla szerokiego zakresu argumentów.
3
EN
We review recent work characterizing the classes of functions for which deep learning can be exponentially better than shallow learning. Deep convolutional networks are a special case of these conditions, though weight sharing is not the main reason for their exponential advantage.
4
Content available remote Mini-model method based on k-means clustering
EN
Mini-model method (MM-method) is an instance-based learning algorithm similarly as the k-nearest neighbor method, GRNN network or RBF network but its idea is different. MM operates only on data from the local neighborhood of a query. The paper presents new version of the MM-method which is based on k-means clustering algorithm. The domain of the model is calculated using k-means algorithm. Clustering method makes the learning procedure simpler.
PL
Metoda mini-modeli (metoda MM) jest algorytmem bazującym na próbkach podobnie jak metoda k-najbliższych sąsiadów, sieć RBF czy sieć GRNN ale jej zasada działania jest inna. MM operuje tylko na danych z najbliższego otoczenia punktu zapytania. Artykuł prezentuje nową wersję metody MM, która bazuje na algorytmie k-średnich. Domena MM jest obliczana przy pomocy algorytmu k-średnich. Użycie algorytmu klasteryzacji uprościło procedurę uczenia.
EN
In the present investigation, artificial neural networks are applied to model scattering and absorption properties occurring in particle radiation interaction for numerical simulation of pulverized coal combustion. To determine averaged scattering and absorption properties, an averaging procedure over spectral incident radiation profile and particle size distribution is applied. These averaged properties then are approximated by means of an artificial neural network. A study to determine a suitable network architecture is performed.
EN
In order to determine the most appropriate geometrical parameters of regulated watercourses, this paper presents some ways to identify the natural course thereof. In addition to analysing the types of curves approximating the test object, the authors have also described the methods of studying the range of these curves. In order to determine the degree of relationships between the variables of the studied watercourses, the authors have analysed the correlation coefficients. The paper presents the findings pertaining to the best-matched curves approximating the given object.
PL
W celu ustalenia najbardziej właściwych parametrów geometrycznych regulowanych cieków wodnych, przedstawione zostały pewne sposoby identyfikacji ich naturalnego przebiegu. Oprócz przeanalizowania rodzajów krzywych aproksymujących badany obiekt, zostały również opisane sposoby badania zasięgu tych krzywych. Dla ustalenia stopnia zależności między zmiennymi badanych cieków poddano analizie wartości współczynników korelacji. Przedstawiono wnioski dotyczące najwłaściwiej dobranych krzywych aproksymujących obiekt.
EN
Different groups of free radicals exist in biological material like animal tissues or plants parts. The processes like heating or cooling creates additional types of free radicals groups in this organic matter, due to changes in chemical bonds. The paper proposes a method to determine types and concentrations of different groups of free radicals in the matter processed in various temperatures. The method extracts the spectrum of free radicals using electron paramagnetic resonance with the microwave power of 2.2 mW. Then an automatic method to find a best possible fit using limited number of theoretical mathematical functions is proposed. The match is found using spectrum filtration, and a genetic algorithm implementation supported by a Gradient Method. The obtained results were compared against the samples prepared by an expert. Finally, some remarks were given and new possibilities for future research were proposed.
8
EN
Mini-models are local regression models, which can be used for the function approximation learning. In the paper, there are presented mini-models based on hyper-spheres and hyper-ellipsoids and researches were made for linear and nonlinear models with no limitations for the problem input space dimension. Learning of the approximation function based on mini-models is very fast and it proved to have a good accuracy. Mini-models have also very advantageous extrapolation properties.
PL
Mini-modele to modele lokalnej regresji, które można wykorzystać do aproksymacji funkcji. W artykule opisano mini-modele o bazie hiper-sferycznej i hiper-elipsoidalnej oraz badania dla mini-modeli linowych i nieliniowych bez ograniczeń na rozmiar przestrzeni wejść. Uczenie aproksymującej funkcji opartej na mini-modelach jest szybkie, a sama funkcja ma dobrą dokładność i korzystne własności ekstrapolacyjne.
EN
The paper describes a new method based on the information-gap theory which enables an evaluation of worst case error predictions of the kNN method in the presence of a specified level of uncertainty in the data. There are presented concepts of a robustness and an opportunity of the kNN model and calculations of these concepts were performed for a simple 1-D data set and next, for a more complicated 6-D data set. In both cases the method worked correctly and enabled evaluation of the robustness and the opportunity for a given lowest acceptable quality rc or a windfall quality rw. The method enabled also choosing of the most robust kNN model for a given level of an uncertainty [alfa].
PL
W artykule opisane jest zastosowanie teorii luk informacyjnych do określania największego błędu modelu kNN w przypadku wystąpienia w danych niepewności o określonym poziomie. Przedstawione zostały pojęcia odporności i sposobności modelu kNN oraz pokazane zostały przykłady ich wyznaczania dla prostych danych jednowejściowych i bardziej złożonych, sześciowejściowych. W obu przypadkach metoda działała prawidłowo, a dodatkowo umożliwiała wyznaczanie najbardziej odpornego modelu kNN przy określonym poziomie niepewności [alfa].
10
Content available On some stability properties of polynomial functions
EN
In this paper we present conditions under which a function F with a control function f, in the following sense [wzór], can by uniformly approximated by a polynomial function of degree at most n.
PL
W artykule wskazano na pewne aspekty związane z implementacją jednokierunkowej sieci neuronowej w architekturze równoległej z wykorzystaniem standardu przesyłania komunikatów MPI. Zaprezentowany przykład zastosowania sieci dotyczy klasycznego problemu aproksymacji funkcji. Zbadano wpływ liczby uruchamianych procesów na efektywność procedury uczenia i działania sieci oraz zademonstrowano negatywny wpływ opóźnień powstałych przy przesyłaniu danych za pomocą sieci LAN.
EN
In the paper some characteristic features concerning feed-forward neural network implementation in parallel computer architecture using MPI communication protocol are investigated. Two fundamental methods of neural network parallelization are described: neural (Fig. 1) as well as synaptic parallelization (Fig. 2). Based on the presented methods, an original application implementing feed-forward multilayer neural network was built. The application includes: a Java runtime interface (Fig. 3) and a computational module based on the MPI communication protocol. The simulation tests consisted in neural network application to classical problem of nonlinear function approximation. Effect of the number of processes on the network learning efficiency was examined (Fig. 4, Tab. 1). The negative effect of transmission time delays in the LAN is also demonstrated in the paper. The authors conclude that computational advantages of neural networks parallelization on a heterogeneous cluster consisting of several personal computers will become apparent only in the case of very complex neural networks, composed of many thousands of neurons.
PL
W artykule wskazano na pewne charakterystyczne aspekty związane z zastosowaniem jednokierunkowych sieci neuronowych jako uniwersalnych układów aproksymujących złożone zależności nieliniowe. Zaprezentowany przykład dotyczy klasycznego problemu z dziedziny robotyki -tzw. odwrotnego zadania kinematyki. Zademonstrowano wpływ właściwego doboru struktury sieci, jej algorytmu uczenia oraz wzorców uczących na jakość aproksymacji neuronowej.
EN
Characteristic features of feedforward artificial neural networks, acting as universal function approximators, are presented. The problem under consideration concerns inverse kinematics of a two-link planar manipulator (Fig. 1). As shown in this paper, a two-layer, feedforward neural network is able to learn the nonlinear mapping between the end effector position domain and the joint angle domain of the manipulator (Fig. 2). However, a necessary condition for achieving the required approximation quality is proper selection of the network structure, especially with respect to the number of nonlinear, sigmoidal units in its hidden layer. Using too few neurons in this layer results in underfitting (Fig. 3), while too many neurons bring the problem of overfitting (Figs 6 and 7). The effect of learning algorithm efficiency as well as proper choice of learning data set on the network performance is also demonstrated (Fig. 8). Apart from the general conclusions concerning neural approximation, the presented results show also the possibility of neural control of robotic manipulator trajectory.
EN
The present paper is concerned with the fast growth of analytic functions in the sets of the form ...[wzór] is the Siciak extremal function of a compact set K) by means of the Lagrange polynomial approximation and interpolation on K having rapidly increasing maximum modulus. To study the precise rates of growth of such functions the concept of index has been used.
14
Content available remote On strong approximation of functions of one and two variables by certain operators
EN
We investigate certain class of linear operators in polynomial weighted spaces of differentiable functions of one and two variables. We introduce strong differences of functions and operators and we give approximation theorems for them. The present theorems show that strong approximation is more general than normal approximation. Section I is devoted strong approximation of functions of one variable and Section II of functions of two variables. This note is motivated by resultus on strong approximation connected with Fourier series ([5], [8])
EN
In this paper a method of selecting free parameters of certain orthogonal, complex valued functions used for dynamic system approximation is presented. The method is based on incremental approximation that ensures that in every incremental step the maximum of error decrease is achieved.
PL
Przedstawiono ogólną ideę przyrostowej aproksymacji układów dynamicznych przy wykorzystaniu pewnej bazy funkcji ortogonalnych. Funkcje te zależą od pewnego wektora parametrów, którego wartość wpływa na jakość aproksymacji. W pracy podano sposób doboru tych parametrów zapewniający największy spadek błędu aproksymacji w każdym kroku.
16
Content available remote Sine polynomials
EN
The method of approximation of the micro-functions 1-cospp and sinpp based on the criteria of similarity of the polynomial to the functions and their derivatives has been presented in this paper. The selected properties of the received approximating polynomials have been compared with the polynomials most often used, and the applications have been indicated.
PL
W pracy przedstawiono metodę aproksymacji mikrofunkcji 1-cospp i sinpp opartą na kryteriach podobieństwa wielomianu i funkcji oraz ich pochodnych. Porównano wybrane właściwości otrzymanych wielomianów aproksymujących z najczęściej dotychczas używanymi oraz wskazano zastosowania.
17
Content available remote Approximation of covariance function with application to stochastic mechanics
EN
A concept of canonical representation of random processes and the possibility of its application in stochastic soil mechanics is presented in the paper. Spectral decomposition, Karhunen-Loeve expansion and orthogonal expansions modified by Hermite polynomials are examined. For given expansions, errors connected with the different number of expansion terms adopted are analyzed. On the example of a ground layer of random elastic parameters it is proved that canonical representations make it possible to obtain approximate, analytical solution of the stochastic system describing the random theory of elasticity. Application of such representations allows to diminish appreciably the number of multiple integrals present in the equations, which become often possible to compute using symbolic languages included in the newer generation of application programs (e.g. Mathematica). In case of spectral decompositions, a periodicity analysis of their harmonics is carried out as well as of the errors resulting from them. In order to eliminate them, formulae to define the extent of the integration are proposed.
PL
W pracy przedstawiono koncepcję rozwinięć kanonicznych dla procesów losowych oraz możliwość ich zastosowania w stochastycznej mechanice gruntów. Rozpatrzono rozkład widmowy, rozwinięcia Karhunena-Loeve'a oraz rozwinięcia ortogonalne, zmodyfikowanymi wielomianami Hermite'a. Dla poszczególnych rozkładów analizowano błędy związane z przyjęciem różnej liczby wyrazów rozwinięcia. Na przykładzie zagadnienia warstwy gruntu o losowych parametrach sprężystych wykazano, że rozkłady kanoniczne umożliwiają uzyskanie przybliżonego, analitycznego rozwiązania systemu stochastycznego opisującego losową teorię sprężystości. Wykorzystanie rozkładów kanonicznych pozwala na istotne zminiejszenie liczby całek wielokrotnych występujących w równaniach, które często stają się możliwe do obliczenia przy wykorzystaniu języków symbolicznych zawartych w programach użytkowych nowszej generacji, typu Mathematica. W przypadku rozkładów widmowych przeprowadzono analizę okresowości ich harmonik i wynikających stąd błędów. W celu ich wyeliminowania, zaproponowano wzory określające zasięg obszarów całkowania.
PL
W niniejszej pracy scharakteryzowana jest aproksymacja przyrostowa funkcji realizowana za pomocą sieci neuronowych z jedną warstwą ukrytą. Liczba neuronów w warstwie ukrytej jest dobierana dynamicznie w trakcie procesu aproksymacji. W każdej iteracji wyznacza się parametry tylko jednego neuronu. Warstwa wyjściowa jest liniowa, w której jest wyznaczany najlepszy aproksymator przez rzutowanie ortogonalne. Funkcje aproksymowane pochodzą z przestrzeni Hilberta. W trakcie procesu aproksymacji wyznaczane i przechowywane są dwie bazy: baza dla implementacji i rozpinająca tę samą przestrzeń pomocnicza baza ortonormalna. Rozważa się zagadnienia adaptacyjnego wyboru bazy, funkcjonałów celu w aproksymacji przyrostowej, funkcji wygładzających, uzależnienia szybkości aproksymacji i wag w warstwie wyjściowej, uporządkowania bazy w aproksymacji przyrostowej, aproksymacji pola wektorowego i regularyzacji w sieciach przyrostowych. W pracy określono warunki zmniejszania błędu w każdej iteracji, warunek najszybszego spadku błędu w każdej iteracji, zdefiniowano funkcję dokładności aproksymacji i wykazano, że jej norma dla kolejnych funkcji bazowych wpływa zasadniczo na wartości wag warstwy wyściowej, szybkość aproksymacji i gładkość (nieoscylacyjność) otrzymywanych rozwiązań. Zaproponowano sposób kontrolowania tej wielkości. Rozważania mają charakter konstruktywny i prowadzą do konkretnych efektywnych algorytmów aproksymacji. Praca zawiera przykłady zastosowań.
EN
In this thesis incremental function approximation by one-hidden-layer neural networks is characterized. During approximation process, number of neurons in hidden layer is dynamically selected. In each iteration oniy one neuron parameters are tuned. Output layer is linear and determines the best approximation via orthogonal projection transformation. Approximation is provided in Hilbert space. During approximation process two space basis are determined: a basis for implementation and an assisted orthonormal basis which spans the same space. The following topics are considered: adaptive selection of basis functions, target functionals, smoothing functions, relation between rate of approximation and weights value in the output layer, ordering of basis, vector field approximation and regularization in the incremental approximation. We formulated conditions for decreasing of error in every iteration and conditions for fastest error decrease. There was defined a function of accuracy and proved that its norm for subsequent basis functions largely influence the output weights, rate of approximation and smoothness (nonoscilatory) of obtained solutions. A way of controlling its value was suggested. Our considerations are constructive and end with efficient approximation algorithms. Examples of applications are included.
EN
In this paper there are generalized some Schumaker's theorems (see Theorem 2.68 and 2.69 [2]) for the function's two variables in Lp(Q) spaces with mixed norms.
PL
W [1] udowodniono równoważność wagowego K - funkcjonału i wagowego modułu gładkości w przestrzeni Lp(Q) z normą mieszaną. W tej notce pokażemy, jak opierając się na tym wyniku w prosty sposób można udowodnić twierdzenia, które są uogólnieniem wyników Schumakera (tw. 2.68 i 2.69 [2]) sformułowanych dla funkji jednej zmiennej w przestrzeni Lp na funkcje dwóch zmiennych w przestrzeni Lp(Q) z normą mieszaną.
20
Content available remote Approximation of functions of several variables in exponential weighted spaces
EN
In this note we define some operators Ln and U n of the Szasz-Mirakjan type in exponential weighted spaces of functions of several variables. In Sec. 2 we give some basic properties of these operators. The main theorems are given in Sec. 3. The similar results for functions belonging to polynomial weighted spaces are given in [3]. Some properties of these operators for functions of one variable with exponential weighted spaces are given in [4] .
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.