Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl

PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2011 | T. 13/54 | 47-78
Tytuł artykułu

Przybliżona lokalizacja uszkodzeń w zadanym obszarze

Autorzy
Warianty tytułu
EN
Approximate localisation of imperfections in fixed domain
Języki publikacji
PL
Abstrakty
PL
Niniejsza praca przedstawia procedurę przybliżonego wyznaczania lokalizacji uszkodzenia w zadanym obszarze. Definiujemy problem spektralny, którego rozwiązaniami są wartości własne. Wartości te zależą od położenia i wielkości uszkodzenia. Głównym celem postawionym w pracy jest rozwiązanie zadania odwrotnego, które polega na lokalizowaniu uszkodzenia obszaru na podstawie wektora wartości własnych. Z uwagi na brak jednoznaczności rozwiązań definiujemy nowe zadanie w innym obszarze, dla którego zagwarantowane jest istnienie przybliżonego rozwiązania zadania odwrotnego. W celu wyznaczenia lokalizacji uszkodzenia definiujemy nowe odwzorowanie, którym jest warunkowa wartość oczekiwana położenia uszkodzenia pod warunkiem, że znamy skończony ciąg wartości własnych. Odwzorowanie to jest aproksymowane przez tak zwany ciąg aproksymujący, którym jest rodzina sieci neuronowych Elmana. Sieć jest budowana w sposób dynamiczny. Jej wielkość jest zależna od liczby elementów należących do zbioru uczącego. Stosowana metoda aproksymacji jest zbieżna.
EN
In this paper we present a procedure for determining the approximate location of imperfection in a fixed domain. We define the spectral problem whose solutions are eigenvalues. These values depend on the location and the size of the imperfection. The main aim in this work is to find the solution of the inverse problem. It means that we find the location of the imperfection in our domain based on the vector of eigenvalues. For the inverse problem we don’t have the uniqueness of the solutions so we Define a new problem in new domain. For the new problem we obtain the existence of the approximate solution of the inverse problem. In order to determine the location of imperfection we define a new mapping. This mapping is defined as the conditional expectation of the location of imperfection, provided that we know the finite number of eigenvalues. The mapping is approximated by the Elman’s neural networks. The networks are built in a dynamic way. Their size depends on the size of the learning set. The approximation method is convergent.
Wydawca

Rocznik
Tom
Strony
47-78
Opis fizyczny
Bibliogr. 18 poz., wykr.
Twórcy
autor
  • Katedra Analizy Matematycznej i Teorii Sterowania Wydział Matematyki i Informatyki Uniwersytet Łódzki, marta@math.uni.lodz.pl
Bibliografia
  • [1] N. Baba, A new approach for finding global minimum of error function of neuralnetworks, Neural Networks, 2, 1989, 367-374.
  • [2] A. Barron, Statistical Properties of Artificial Neural Networks, Proceedings of the 28th IEEE Conference on Decision on Control, New York, 1989, 280-285.
  • [3] M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa, 1967.
  • [4] D. Gilbarg, N. S. Trudinger, Elliptic Partial Differential Equations of Second Order, Springer-Verlag, Berlin Heidelberg New York Tokyo, 1983.
  • [5] M. Grzanek, A. Laurain, K. Szulc, Numerical algorithms for an inverse problem in shape optimization, 6th International Conference on Inverse Problems in Engineering: Theory and Practice, Journal of Physics: Conference series, Vol. 135 (2008) 012047.
  • [6] K. Hornik, M. Stinchcombe, H. White, Multilayer feedforward networks are universal approximators, Neural Networks, 2, 1989, 359-366.
  • [7] K. Hornik, M. Stinchcombe, H. White, Universal approximation of an unknown mapping and its derivatives using multilayer feedforward networks, Neural Networks, 3, 1990.
  • [8] L. Jackowska-Strumiłło, J. Sokołowski, A. Żochowski, A. Henrot, On Numerical Solution of Shape Inverse Problem, Computational Optimization and Application, 23, 2002, 231-255.
  • [9] W. Kosiński, Field singularities and wave analysis in continuum mechanics, Mathematics and its Applications, PWN, Warszawa, 1986.
  • [10] A. Laurain, K. Szulc, Using self-adjoint extensions in shape optimization, Proceedings of the 23rd IFIP TC7 Conference on System Modelling and Optimization, IFIP Advances in Information and Communication Technology, Vol. 312 (2009).
  • [11] M. Stinchcombe, H. White, Some measurability results for extrema of random functions over random sets, University of California, San Diego 1992.
  • [12] M. Stone, Cross-validitory choice and assessment of statistical predictions, Journal of the Royal Statistical Society, Series B, 36,1974, 111-133.
  • [13] H. White, J. Wooldridge, Some results on sieve estimation with dependent observations, Cambridge University Press, Now York, 1990.
  • [14] H. White, Connectionist nonparametric regression: multilayer feedforward networks can learn arbitrary mappings, University of California, San Diego 1990.
  • [15] H. White, Learning of artificial neural networks: A statistical perspectiv, Neural Computation, 1, 1989, 425-464.
  • [16] H. White, Asymptotic theory for econometricians, Orlando, 1984.
  • [17] H. White. A practical cross-validation method for multilayer feedforward networks, Internal HNC Report, 1989.
  • [18] M. Lipnicka, Badania własności sieci neuronowych Elmana z uwzglednieniem szczegónych zastosowań, Praca doktorska, Łódź, 2011.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.baztech-article-BUS8-0016-0013
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.