Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  metoda Tikhonova
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W pracy podane zostały algorytmy analizy danych pomiarowych obarczonych wysokim poziomem szumu informacyjnego. Wynik pomiaru traktowany jest nie jako liczba, ale jako funkcja, niekiedy funkcja wielu zmiennych Proces obróbki danych pomiarowych jest de facto procesem poszukiwania aproksymanty tej funkcji. Stabilność procesu obliczeniowego i możliwość wykorzystywania informacji a’priori zostały uzyskane dzięki zastosowaniu procedur regularyzacyjnych według pomysłu Tichonowa. W przeciwieństwie jednak do klasycznych prac z obszaru teorii regularyzacji, autor nie stosuje jednego parametru regularyzacyjnego, ale zbiór parametrów zale ny od ilości niezależnych baz danych wykorzystywanych w obliczeniach. Przy konsolidacji danych pochodzących ze źródeł o różnej wiarygodności wykorzystane zostały narzędzia teorii zbiorów rozmytych. Zaproponowana w artykule technika obliczeniowa może być wykorzystana do analizy zanieczyszczeń atmosfery w sytuacji, gdy klasyczne techniki pomiarowe, bazujące na założeniu, że w powietrzu znajduje się tylko jedna substancja toksyczna, okazują się bezużyteczne lub mało wiarygodne. Jako podstawowe źródło danych do określenia stężeń różnych substancji występujących równocześnie w tej samej próbce analizowanego powietrza autor proponuje zastosowanie typowych metod spektrometrii widma elektromagnetycznego, spektrometrii masowej oraz spektroskopii adsorbcyjnej. Metody te zostały skrótowo opisane w artykule. Omówiono również wybrane techniki elektrochemiczne, które, ze względu na niską selektywność, nie powinny być stosowane samodzielnie, ale dostarczają danych poprawiających dokładność i selektywność wymienionych wyżej metod spektroskopowych. W podanym opisie zwrócono szczególną uwagę na funkcyjny charakter odpowiedzi układu pomiarowego na występowanie określonego stężenia określonej substancji.
EN
Algorithms of analysis of the measuring data burdened with the high level of the information noise were given in the work. The measuring result is treated not as the number, but as the function, sometimes the function of many variable. The handling process of the of measuring data de facto is a serching of approxmate of this function.. The stability of the computational process and the possibility of using of the information given a'priori became obtained through the use of regularization procedures according to the Tikhonov idea. Contrarily however to classical works from the area of the of the regularizationtheory author does apply not one parameter of regularization, but the set of parameters quantity-dependent of independent databases used in calculations.For consolidation of data coming from sources with the different reliability the tools of fuzzy set theories. were used. The computing technique proposed in the article can by used to the analysis of pollutions of the atmosphere in the situation, when classical measuring techniques basing on the assumption that only one toxic substance is found in the air - they turn out useless or turn out very little reliable. As the basic data source for describing of concentrations of different substances appearing simultaneously in the same air sample the author proposes the use of typical methods of the spectrometry of the electromagnetic spectrum, the mass spectrometry and the surface adsorbtion spectroscopy. These methods became epitomically described in the article. One discussed also chosen electrochemical techniques which due to the low selectivity should not be applied independently, but provide data improving the accuracy and the selectivity of spectroscopic methods. In given description one paid particular attention on the functional character of the answer of the measuring-system on the occurrence of the determined concentration of the determined substance.
2
EN
The aim of the study was to determine the viscoelastic properties of the model mixtures of the selected pasted polysaccharides. The initial material was water pastes of corn starch (SK), mixed with guar gum (GG), carboxymethylcellulose (CMC) and xanthan gum (GK). Rheological tests were performed in time domain. Theoretical analysis covered adaptation of some elements of phenomenological theory of viscoelasticity applied to interpretation of the results obtained for the mixtures of investigated biopolymers. The emphasis was placed on description of retardation behaviours based on continuous rheological Burger's model.
PL
Przedstawiono wyniki badań lepkosprężystości modelowych mieszanin wybranych polisacharydów. Materiałem wyjściowym były kleiki skrobi kukurydzianej (SK), zmieszane z gumą guar (GG), karboksymetylocelulozą (CMC) oraz gumą ksantanową (GK). Badania reologiczne przeprowadzono w dziedzinie czasowej. Do analizy otrzymanych wyników zastosowano elementy fenomenologicznej teorii lepkosprężystości. Wyznaczono ciągłe widma retardacji oparte na ciągłym modelu Burgera. Estymację przeprowadzono metodą regularyzacji ciągłej Tikhonova.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.